En un año en el que la inteligencia artificial ganó protagonismo gracias a sitios como Chat GPT y Dall-E, que permiten dialogar con computadoras como si fueran personas, se presentaron adelantos de una investigación de la UBA en el marco del programa Argentina Futura, sobre los desafíos e impactos de estas tecnologías y el análisis de posibles regulaciones locales y regionales, al igual que sucede en otras partes del mundo.
El programa Argentina Futura, dependiente de la Jefatura de Gabinete de Ministros de Presidencia, encargó a la Universidad de Buenos Aires (UBA) el estudio “Desafíos e impactos de la Inteligencia Artificial. Marcos normativos, riesgos y retos para la calidad democrática en la Argentina”, cuyos resultados preliminares se presentaron este martes 17 de octubre en la Facultad de Ciencias Sociales de la UBA, en el marco del Seminario de Informática y Sociedad, cátedra Kozak.
Durante la presentación de los primeros resultados de este estudio, el sociólogo Nahuel Sosa, titular Argentina Futura, aseguró: “Vemos al Estado como una parte de la sociedad que planifica los cambios que plantea la IA. Los efectos positivos o negativos que tenga esta tecnología dependerán del involucramiento de los actores”. Sobre todo, esto cobra todavía mayor relevancia cuando se piensa en el efecto que puede tener analizar y gestionar áreas críticas para las poblaciones, como el acceso a la salud, a la justicia o la educación, mediante estas tecnologías.
Esto es porque los sistemas basados en herramientas de inteligencia artificial no están libres, en su diseño, de la influencia de sesgos y prejuicios de quienes los han desarrollado o de la información con la que fueron entrenados. Por ejemplo, es conocido el caso del reconocimiento facial de prófugos de la justicia en el que se ha demostrado que las personas de color tienen 100 veces más posibilidades de ser confundidas y así detenidas injustamente.
A nivel internacional y regional, se está trabajando para diseñar marcos que regulen o al menos orienten el desarrollo e implementación de las IA generativas, entendidas como aquellas que pueden crear nuevos conceptos e ideas en diversos formatos, desde texto hasta imágenes, video y música. Frente a cómo regular el desarrollo y la implementación de estas tecnologías aparecen actualmente dos posiciones internacionales muy definidas. La estadounidense, que busca liderar el desarrollo de la inteligencia artificial y busca generar un marco muy flexible para las empresas privadas que trabajan con este sector, para que actúen dentro de un marco de recomendaciones comerciales. La europea, en cambio, pone en el centro a los derechos de los ciudadanos, con lo que es más restrictiva con respecto a la capacidad de acción de las empresas que actúan sobre este campo. También existen recomendaciones sobre ética de la IA de la Unesco y el programa de IA de la OCDE.
En América Latina, la Argentina, al igual que otros países de la región, está comenzando la discusión sobre posibles normativas que puedan aplicarse al diseño y al uso de herramientas de inteligencia artificial, como es el caso de la Guía de Recomendaciones y Principios para la Implementación de Proyectos de IA, que se publicó a mediados de este año.
Un sistema robusto de IA debe contar con tres elementos fundamentales: cantidades masivas de datos, una gran potencia computacional para el procesamiento de esos datos, y contar con sistemas de aprendizaje automático, además de capacidades para usarlos. Son pocas las organizaciones en el mundo que logran unir estos tres aspectos. Por ejemplo, China acumula muchos datos de sus 1500 millones de habitantes, pero ese potencial no se compara con la cantidad y variabilidad de datos que tiene Facebook con 4500 millones de usuarios de todo el mundo, de diferentes culturas, idiomas y costumbres.
Las posibilidad de generar imágenes falsas también han planteado nuevos desafíos sobre cómo gestionar el uso de estas aplicaciones, tanto éticas como relacionadas al derecho. Estudiantes de una escuela secundaria de España denunciaron que sus compañeros estaban vendiendo fotos de ellas desnudas aunque ellas nunca se habían sacado esas fotos. Para hacerlas sus compañeros había usado fotos de sus caras y pedido a una herramienta de inteligencia artificial que hiciera sus cuerpos desnudos. Este caso plantea la necesidad de límites a este tipo de producciones, agravado por el hecho de que se trataba de menores de edad, y aunque esos no fueran sus cuerpos reales el hecho generó un daño real. Casos similares sucedieron en una escuela del conurbano bonaerense y en una universidad de San Juan.
Este tipo de riesgos no suelen ser previstos por los programadores y generan consecuencias importantes a la hora de usar estos sistemas. También se suele señalar los riesgos a que genera la IA por su capacidad de generar deep fakes, videos o audios falsos en los que se imita a una persona y se la hace decir lo que se desee, lo que tiene impactos en la viralización de noticias falsas y en su capacidad de socavar el debate público y el funcionamiento del sistema democracia. El investigador Pablo Manolo Rodríguez, otro de los integrantes del equipo de investigación a cargo del estudio, advirtió que hay que cuestionar los preconceptos alrededor de estas herramientas: “Se dice que son un hecho técnico y que no se pueden gobernar”.
Del estudio emergió también la necesidad de colaborar con ordenar la conversación pública sobre los posibles impactos –desde benéficos hasta riesgosos o incluso catastróficos– de estos sistemas. También se trabajó en organizar la descripción de las IA en la escala macro (como las iniciativas de IA generativas de las grandes transnacionales como Open IA, Google, Amazon), la escala meso (desde desarrollos nacionales hasta implementaciones locales), y la escala micro, que incluye sistemas de IA específicos para diversas industrias.
El proyecto es dirigido por la investigadora Flavia Costa, quien dijo: “Cuando los ingenieros hacen un sistema llaman a un grupo de expertos para cada tema en particular, como salud, o sonido, pero no perciben que sus sistemas tengan que tener, por su naturaleza, un trato permanente con otra áreas. Creen que con un programa que registre sesgos es suficiente. Para las políticas públicas que monitoreen esos sistemas los expertos no pueden venir solo de la informática, sino que los especialistas de las ciencias sociales son muy importantes. La IA no es una herramienta, es un mundo ambiente, no es elegible usarlas o no. la IA generativa es una sociedad artificial”.
Matías Alonso