Inteligencia artificial: Oportunidades, riesgos y desafíos para Argentina

Cómo nos informanos, dónde compramos, qué comemos y hasta qué pensamos: desde que nos levantamos hasta que nos vamos a dormir, prácticamente todo lo que hacemos está mediado por lo digital. La adopción de tecnologías de inteligencia artificial (IA) está cada vez más presente en todos los ámbitos de nuestras vidas y eso tiene, como todo, consecuencias positivas y negativas.

Si se analiza a nivel macro, la IA es un conjunto de herramientas que puede generar una importante transformación productiva en países en desarrollo como la Argentina. Sin embargo, para aprovechar ese potencial, los países deben mejorar sus habilidades, la infraestructura y la disponibilidad de datos, y todavía existe una brecha digital importante respecto a los países desarrollados. Además, la difusión de estas tecnologías conlleva riesgos éticos, económicos y políticos que pueden afectar la gobernanza de países con débil marco institucional.

Para debatir sobre esos aspectos, la Escuela de Economía y Negocios (EEyN) de la Universidad Nacional de San Martín (UNSAM) organizó la mesa de diálogo “Inteligencia artificial y estrategias de desarrollo: aprovechar el potencial, gestionar los riesgos”. El panel, que se realizó el miércoles 10 de septiembre en el auditorio de la EEyN, contó con la participación de Carlos Chesñevar, investigador del CONICET en la Universidad Nacional del Sur (UNS) y Natalia Debandi, investigadora del CONICET en la UNSAM; y con la moderación de Valeria Arza y Lilia Stubrin (EEyN–UNSAM).

“Es necesario pensar estrategias de desarrollo en relación a la inteligencia artificial, cuáles son las condiciones que hacen falta para impulsar ese desarrollo y cuáles son los riesgos que hay que prevenir, regular y mitigar”, indicó Chesñevar, especialista en IA e investigador del Instituto de Ciencias e Ingeniería de la Computación (ICIC–UNS/CONICET), un centro que trabaja en la temática desde hace 35 años.

Por su parte, Debandi, que es investigadora de la Escuela de Ciencia y Tecnología (ECyT) de la UNSAM, planteó: “Todos queremos hacer cosas con IA. Pero, ¿con cuál IA?”. La experta dividió a la inteligencia artificial en tres grandes grupos. Por un lado, está la que funciona como herramienta para trabajar grandes volúmenes de datos. Por otro lado, está la IA predictiva, que sirve para tratar de anticiparnos al futuro y tomar mejores decisiones. En tanto, el tercer grupo comprende la IA generativa, que puede “crear” contenido nuevo a partir de grandes conjuntos de datos existentes, simulando el proceso de razonamiento humano, como el ya masivo ChatGPT.

Oportunidades: Aprovechar la trayectoria productiva del país

Para analizar las oportunidades que puede tener la IA para el desarrollo del país, Debandi señaló que es necesario pensar en qué tipo de desarrollo sería más conveniente incursionar. En ese sentido, señaló que es posible hacer «desarrollo con IA», que sería simplemente adoptar tecnología desarrollada en otros países y utilizarla en sectores productivos y de gobernanza. Por otro lado, se puede hacer «desarrollo en IA», lo que implica diseñar modelos de lenguaje propios. En este punto, la investigadora remarcó que si bien puede ser algo positivo, hay que analizar cuántos recursos (económicos pero también otros, como el agua) está dispuesto a invertir el país para saber si vale la pena.

Asimismo, una tercera posibilidad es hacer innovación con IA, sobre todo en sectores donde el país tiene un largo recorrido. “Argentina tiene una trayectoria histórica previa a la IA en ámbitos como la biotecnología y los DD.HH., donde el desarrollo de modelos específicos puede darnos un plus importante. Hay muchos temas en los que podríamos generar innovación que nos permita posicionarnos con nuestra propia identidad”, indicó Debandi.

Al respecto, Chesñevar agregó que el país tiene una gran capacidad de innovación tecnológica profunda (conocida como deep tech), que son tecnologías que pueden brindar soluciones disruptivas en diversos ámbitos. “Si miramos Latinoamérica, el 23% de la deep tech viene aportado por la Argentina, donde la biotecnología tiene el potencial principal”, precisó.

Para Debandi, un puntapié clave es preguntarse qué brechas puede ayudar a reducir la IA. Puso el ejemplo de la deserción temprana en educación y señaló que muchas veces se piensa en elaborar herramientas que diagnostiquen el problema, pero no se avanza en una solución. “El agente nos dice ‘hay tantos chicos que pueden dejar la escuela’ cuando seguramente el docente ya lo sabe. Entonces, ¿estamos realmente adquiriendo más información o estamos generando una gran infraestructura para resolver algo que en realidad nuestros maestros ya sabían, cuando lo que hay que hacer es darles los instrumentos para resolverlo?”, apuntó.

Riesgos: La IA “mágica” y una falsa ilusión de razonamiento

Si se piensa en riesgos, los expertos coincidieron en que uno de los más latentes es la ausencia de pensamiento crítico en torno a la IA generativa. “Este tipo de inteligencia artificial ha copado el escenario social, se ha robado el nombre y lo ha mistificado. Hay autores que incluso la llaman, de manera burlona, inteligencia artificial degenerativa, por todos los perjuicios que aparecen asociados al deterioro y sedentarismo cognitivo. Son elementos tecnológicos que generan la sensación de que hay que apurarse a hacer algo porque sino la competencia lo va a hacer antes, en vez de construir el pensamiento crítico sobre qué hace falta tener”, explicó Chesñevar.

“Argentina tiene una trayectoria histórica previa a la IA en ámbitos como la biotecnología y los DD.HH., donde el desarrollo de modelos específicos puede darnos un plus importante», señaló Debandi.

Para el especialista, la IA generativa crea la ilusión de que hay una especie de magia que viene a propulsar una productividad impensada para la sociedad. “Si queremos que la IA cumpla el rol de herramienta, no puede tener componentes de tipo mágico”, remarcó. Además, hay importantes vacíos legales en cuanto a la propiedad intelectual de los textos, videos, entre otros, que la IA utiliza para crear un contenido supuestamente nuevo, lo que puede terminar convirtiendo a estos sistemas en “máquinas gigantescas de plagio”.

“Los textos que se generan con estos modelos de lenguaje son artificiales y no tienen un significado desde la perspectiva humana. No podemos olvidar que la IA nunca tuvo contacto con la realidad. El ChatGPT nunca vio una nube, un pájaro, un árbol, y solo sabe lo que son a partir de lo que otras personas ven y sienten. Todo ese modelo está basado en una falsa ilusión de razonamiento, que en realidad es un manejo de probabilidades sumamente efectivo que genera un diálogo que es una ficción”, sostuvo el investigador.

En la misma línea, Debandi señaló que algo que a ella le preocupa bastante es la sobrelegitimidad de la información que proviene de modelos como el ChatGPT y que su uso masivo termina rompiendo los procesos de aprendizaje tradicionales. “Cuando le pido información, aunque le pido que me dé citas comprobables, este tipo de IA termina mezclando todo o cita artículos que no existen. Hay una sobrelegitimidad de la información, muchas veces por falta de tiempo, que hace que confiemos y no chequeemos, y esto nos hace más vulnerables ante la IA”, advirtió la investigadora.

Desafíos: crear un lenguaje común, regular más y retener talentos

Para pensar en los desafíos que tiene por delante un país como la Argentina para tratar de amplificar las oportunidades y reducir los riesgos del uso de IA, Chesñevar señaló que es importante generar un lenguaje común, que tiene que estar consensuado desde las distintas miradas de la sociedad y no desde un interés comercial. En ese sentido, espacios como las universidades son clave para crear una sensibilización y capacitación en torno a un núcleo conceptual que sea separado del lenguaje comercial que se puede imponer desde actores privados, que tienen intereses particulares.

Durante la mesa de diálogo, los investigadores debatieron sobre cómo aprovechar las herramientas que brinda la IA para el desarrollo productivo y reducir los riesgos a los que nos exponen estas tecnologías.

“Hace falta una alfabetización en temas de inteligencia artificial. Si no sabemos lo que estamos comprando no podemos ser buenos compradores ni realizar una adopción adecuada de esas herramientas. Para esto se necesita un abordaje interdisciplinar: no se puede pensar en IA sin las humanidades. Un ejemplo es generar más charlas que crucen a especialistas en derecho y en informática”, subrayó el especialista.

Por su parte, Debandi señaló que es importante avanzar en el diseño de regulaciones y sistemas de evaluación de modelos de IA (benchmarks) hechos en y para nuestra región. “En general, están hechos con exámenes de Estados Unidos o Inglaterra, que no sabemos si son buenos para nosotros –seguro que no–. Lo que tendríamos que hacer es diseñar un benchmark latinoamericano”, indicó. También señaló que, desde el ámbito de la gobernanza, falta una mirada integral, transversal y estratégica que coordine los desarrollos en IA y marque el camino a seguir.

Finalmente, los investigadores reflexionaron sobre la dificultad de retener talentos en el área de informática e IA, ya que muchos estudiantes abandonan la carrera porque consiguen trabajo en el sector privado mucho antes de terminar. “En la UNSAM, tenemos la Licenciatura en Ciencia de Datos y se está por recibir la primera camada. Ingresaron 180 estudiantes pero en cuarto año solo tenemos siete. Se va reduciendo porque, ya en segundo año, el 80% tiene un trabajo muy bien pago. Creo que hay que generar estrategias distintas, entre ellas, articular más con el sector privado y repensar la extensión de las carreras”, finalizó Debandi.

Nadia Luna

VIATSS UNSAM - Nadia Luna