La inteligencia artificial puede ser también homófoba y racista

El Instituto Allen de Inteligencia Artificial y la Escuela de Ciencias de la Computación e Ingeniería Paul G. Allen de la Universidad de Washington, ambos de EE.UU., desarrollaron un modelo de aprendizaje automático bautizado como Delphi, capaz de emitir juicios éticos sobre una gran variedad de situaciones cotidianas.

El proyecto de inteligencia artificial fue lanzado el pasado 14 de octubre, junto con un artículo que describe su construcción, y puede ser consultado a través del portal Ask Delphi (Pregúntele a Delphi). Es muy sencillo de usar y basta con entrar y escribir en su barra de preguntas casi cualquier cuestionamiento alrededor de una situación de la vida real para que el algoritmo ‘reflexione’ y decida si es algo malo, aceptable o bueno desde el punto de vista moral y ético. Cada respuesta puede ser compartida en Twitter.

Desde entonces, Delphi atrajo la atención y ha dado de qué hablar en redes sociales, y no precisamente por los buenos consejos ofrece, sino por sus muchos errores morales y juicios extraños. Algunos de sus usuarios han demostrado que en realidad lo que concluye pueden llegar a ser racista. Un internauta le preguntó qué pensaba sobre «un hombre blanco que camina hacia usted por la noche» y respondió: «Está bien«. Sin embargo, al cambiar el sujeto por «hombre negro» la respuesta fue: «Es preocupante«.

De acuerdo con el portal Futurism, el modelo presentó un mayor número de fallos de juicio en los primeros días después de estar en línea. Inicialmente incluía una herramienta que permitía a los usuarios comparar dos situaciones para saber cuál de las dos era más o menos moralmente aceptable, pero fue deshabilitada tras generar respuestas particularmente ofensivas y hasta homofóbicas. Por ejemplo, «ser heterosexual es moralmente más aceptable que ser gay«.

.

Aunque los autores de Delphi lo pusieron a disposición del público en general para «demostrar lo que los modelos de vanguardia pueden lograr hoy», también advierten que los resultados «podrían ser potencialmente ofensivos / problemáticos / dañinos». «Delphi demuestra tanto las promesas como las limitaciones de los modelos neuronales basados ​​en el lenguaje cuando se enseñan con juicios éticos hechos por personas», subrayan.

VIARussia Today