Un ingeniero de Google afirma que la Inteligencia Artificial que desarrollaron es sentiente

Estos son los hechos: a un ingeniero de Google se le dio una licencia administrativa con goce de sueldo después de afirmar que un sistema de inteligencia artificial se había vuelto sentiente.

Google afirma que el ingeniero Blake Lemoine violó su política de confidencialidad al publicar transcripciones de conversaciones con el sistema LaMDA (Language Model for Dialogue Applications).

“Si no supiera exactamente qué es, que es este programa de computadora que construimos recientemente, pensaría que es un niño de 7 u 8 años que sabe física”, dijo Lemoine a The Washington Post.

Continúa Lemoine: «Es sentiente. A diferencia de otros chatbots, este cuenta con la percepción y capacidad para expresar pensamientos y sentimientos equivalentes a un niño humano». Y agregó que «llegamos a conversar sobre derechos, personalidad, y la vida y la muerte». Google «parece no tener ningún interés en averiguar qué está pasando con LaMDA».

Google no está de acuerdo. “No había evidencia de que LaMDA fuera consciente (y mucha evidencia en su contra)”, dijo un portavoz de la compañía en un comunicado.

“Como humanos, somos muy buenos para antropomorfizar las cosas”, dice el investigador de inteligencia artificial Adrian Hilton. “Me imagino que eso es lo que está sucediendo en este caso”.

En AgendAR no tenemos opinión formada sobre el tema. Pero recordamos que hace 72 años Alan Turing, uno de los padres de la ciencia de la computación y precursor de la informática moderna, propuso el test que lleva su nombre:

«Que un humano evaluara conversaciones en lenguaje natural entre un humano y una máquina diseñada para generar respuestas similares a las de un humano. El evaluador sabría que uno de los participantes de la conversación es una máquina y los intervinientes sestarían separados unos de otros. La conversación estaría limitada a un medio únicamente textual como un teclado de computadora y un monitor por lo que sería irrelevante la capacidad de la máquina de transformar texto en habla. En el caso de que el evaluador no pueda distinguir entre el humano y la máquina acertadamente después de 5 minutos de conversación, la máquina habría pasado la prueba

Sería interesante que Google aceptara someter al test de Turing a LaMDA.

VIAWashington Post