Si la IA adquiere conciencia ¿Como lo sabrán los investigadores?

.

La ciencia ficción lleva mucho tiempo contemplando la idea de que la inteligencia artificial se vuelva consciente: pensemos en HAL 9000, el superordenador convertido en villano de la película de 1968 2001: Odisea en el espacio. Con el rápido progreso de la inteligencia artificial (IA), esa posibilidad es cada vez menos fantástica, e incluso ha sido reconocida por los líderes de la IA. El año pasado, por ejemplo, Ilya Sutskever, científico jefe de OpenAI, la empresa que está detrás del chatbot ChatGPT, tuiteó que algunas de las redes de IA más punteras podrían ser «ligeramente conscientes».

Muchos investigadores afirman que los sistemas de IA aún no han llegado al punto de ser conscientes, pero el ritmo de evolución de la IA les ha hecho reflexionar: ¿cómo sabríamos si lo fueran?

Para responder a esta pregunta, un grupo de 19 neurocientíficos, filósofos e informáticos ha elaborado una lista de criterios que, de cumplirse, indicarían que un sistema tiene muchas posibilidades de ser consciente. A principios de esta semana publicaron su guía provisional en el repositorio de preimpresos arXiv, antes de la revisión por pares. Los autores emprendieron la tarea porque «parecía que había una verdadera escasez de debates detallados, empíricamente fundamentados y reflexivos sobre la conciencia de la IA», afirma el coautor Robert Long, filósofo del Center for AI Safety, una organización de investigación sin ánimo de lucro de San Francisco (California).

El equipo afirma que no saber si un sistema de IA ha adquirido conciencia tiene importantes implicaciones morales. Según Megan Peters, coautora del estudio y neurocientífica de la Universidad de California en Irvine, si algo ha sido etiquetado como «consciente», «eso cambia mucho la forma en que nosotros, como seres humanos, creemos que debe ser tratado ese ente».

Long añade que, por lo que ve, las empresas que construyen sistemas avanzados de IA no se esfuerzan lo suficiente por evaluar los modelos de conciencia y hacer planes sobre qué hacer si eso ocurre. «Y eso a pesar del hecho de que, si se escuchan los comentarios de los directores de los principales laboratorios, dicen que la conciencia de la IA o la sensibilidad de la IA es algo sobre lo que se preguntan», añade.

Nature se puso en contacto con dos de las principales empresas tecnológicas implicadas en el avance de la IA: Microsoft y Google. Un portavoz de Microsoft dijo que el desarrollo de la IA por parte de la empresa se centra en ayudar a la productividad humana de forma responsable, más que en replicar la inteligencia humana. Lo que está claro desde la introducción de GPT-4 -la versión más avanzada de ChatGPT lanzada públicamente- «es que se necesitan nuevas metodologías para evaluar las capacidades de estos modelos de IA a medida que exploramos cómo alcanzar todo el potencial de la IA para beneficiar a la sociedad en su conjunto», dijo el portavoz. Google no ha respondido.

¿Qué es la conciencia?

Uno de los retos del estudio de la conciencia en la IA es definir qué significa ser consciente. Peters afirma que, a efectos del informe, los investigadores se centraron en la «conciencia fenoménica», también conocida como experiencia subjetiva. Se trata de la experiencia de ser, es decir, lo que se siente al ser una persona, un animal o un sistema de IA (si es que alguno de ellos resulta ser consciente).

Hay muchas teorías basadas en la neurociencia que describen la base biológica de la conciencia. Pero no hay consenso sobre cuál es la «correcta». Por eso, para crear su marco, los autores utilizaron una serie de estas teorías. La idea es que si un sistema de inteligencia artificial funciona de una forma que coincide con aspectos de muchas de estas teorías, hay más probabilidades de que sea consciente.

En su opinión, se trata de un método mejor para evaluar la consciencia que someter a un sistema a una prueba de comportamiento, por ejemplo, preguntando a ChatGPT si es consciente o desafiándolo para ver cómo responde. Esto se debe a que los sistemas de IA se han vuelto extraordinariamente buenos imitando a los humanos.

Según el neurocientífico Anil Seth, director del Centro de Ciencias de la Conciencia de la Universidad de Sussex, cerca de Brighton (Reino Unido), el planteamiento del grupo, que los autores describen como muy teórico, es un buen camino a seguir. Lo que pone de relieve, sin embargo, «es que necesitamos teorías de la conciencia más precisas y contrastadas», afirma.

Un enfoque muy teórico

Para desarrollar sus criterios, los autores partieron de la base de que la conciencia está relacionada con la forma en que los sistemas procesan la información, independientemente de cómo estén hechos, ya sean neuronas, chips de ordenador o cualquier otra cosa. Este enfoque se denomina funcionalismo computacional. También asumieron que las teorías de la conciencia basadas en la neurociencia, que se estudian mediante escáneres cerebrales y otras técnicas en humanos y animales, pueden aplicarse a la IA.

Partiendo de estas premisas, el equipo seleccionó seis de estas teorías y extrajo de ellas una lista de indicadores de conciencia. Una de ellas -la teoría del espacio de trabajo global- afirma, por ejemplo, que los humanos y otros animales utilizan muchos sistemas especializados, también llamados módulos, para realizar tareas cognitivas como ver y oír. Estos módulos funcionan de forma independiente, pero en paralelo, y comparten información integrándose en un único sistema. Una persona evaluaría si un sistema de IA concreto muestra un indicador derivado de esta teoría, dice Long, «observando la arquitectura del sistema y cómo fluye la información a través de él».

Seth está impresionado por la transparencia de la propuesta del equipo. «Es muy meditada, no es grandilocuente y deja muy claros sus supuestos», afirma. «No estoy de acuerdo con algunos de los supuestos, pero no pasa nada, porque podría estar equivocado».

Los autores afirman que el documento dista mucho de ser una opinión definitiva sobre cómo evaluar la consciencia de los sistemas de IA y que desean que otros investigadores les ayuden a perfeccionar su metodología. Pero ya es posible aplicar los criterios a los sistemas de IA existentes. El informe evalúa, por ejemplo, grandes modelos lingüísticos como ChatGPT, y concluye que este tipo de sistemas presenta algunos de los indicadores de conciencia asociados a la teoría del espacio de trabajo global. En última instancia, sin embargo, el trabajo no sugiere que ningún sistema de IA existente sea un firme candidato a la conciencia, al menos por ahora.

VIANature