La Inteligencia Artificial: ¿cómo la regulamos y la democratizamos?

Toda irrupción de un avance sustantivo en el desarrollo científico tecnológico de la humanidad ha promovido un profundo e interesante debate acerca de los alcances, beneficios y potenciales riesgos que su implementación trae aparejada. Cuando estos avances impactan fuertemente en las formas de producción y distribución del conocimiento, en los procesos productivos y en el futuro del trabajo, este debate se agudiza.

Aparecen en escena un abanico de posiciones que van desde miradas apocalípticas hasta perspectivas ingenuamente utópicas acerca de su uso. Basta repasar las discusiones que acompañaron a cada una de las sucesivas revoluciones industriales para darnos cuenta que no estamos frente a un hecho inédito.

En el caso de la Inteligencia Artificial (IA), la espectacularidad del debate está relacionada, entre otros factores, con lo que nos ha prometido la ciencia ficción, con la incertidumbre acerca de sus alcances, pero también con la forma pomposa en que algunos magnates tecnológicos han advertido públicamente de supuestos riesgos para la vida humana sobre el planeta. La nota firmada por Elon Musk y otras personalidades del Norte Global del mundo y que ha tenido tanta difusión a través de los medios, sugiere un futuro apocalíptico en el que las máquinas podrían revelarse contra las personas. Sin embargo, la densidad del tema y su impacto exigen de mayor rigor en el análisis y también de una perspectiva regional en el estudio de sus implicancias.

Si bien la promesa de una capacidad de cómputo que imite o sobrepase a la inteligencia humana puede rastrearse en los inicios de la Informática, en los trabajos que en la década del 30 escribió Alan Turing, el padre de la Computación, su materialización como una realidad plausible tiene dos hitos más recientes.

El primero de ellos ha sido gracias a la masificación del poder de cómputo y a la maduración de una tecnología conocida como «aprendizaje profundo» en la década pasada. Este avance hizo realidad la posibilidad de que las computadoras entrenadas en grandes volúmenes de datos pudieran repetir ese aprendizaje en datos nuevos. Así, tomando como ejemplo su aplicación en la salud, al ser entrenados estos equipos mediante gran cantidad de placas torácicas donde profesionales marcaban tumores, podrían luego encontrarlos autónomamente en una nueva placa.

El último gran salto es más reciente, y podemos fecharlo a fines de 2022, cuando se dio a conocer ChatGPT, una herramienta capaz de «conversar», o responder a pedidos realizados en forma textual con todo tipo de producciones digitales.

La visión apocalíptica rayana a la ciencia ficción no cosecha muchos apoyos, pero sí lo hacen otras cuestiones, más mundanas y por eso tal vez en el fondo más preocupantes. Una de ellas es lo que en la jerga se conoce como el problema de la “alineación”, el apego a valores. Cómo garantizar que estos productos no den instrucciones para actividades ilegales, reproduzcan sesgos o fomenten discriminaciones. No se trata de un tema menor, principalmente para que los valores culturales que se distribuyan no reflejen únicamente las perspectivas de los países centrales y podamos garantizar la presencia de nuestras propias miradas en los productos derivados de la IA.

Sabemos que lo que globalmente se concibe como “cultura universal” es la cultura de los países con capacidad de difundir sus propios valores como si fueran los de toda la humanidad. Por eso, deberían ser las sociedades, a través de sus Estados las que generen mecanismos de regulación democrática a escala intergubernamental para evitar la hegemonía irrestricta de los países con mayor capacidad de incidencia en la producción de aportes de la IA.

La otra preocupación es la del trabajo. ¿Podrán estas herramientas reemplazar a los humanos en las tareas más repetitivas? ¿Y en aquellas que requieren una dosis de creatividad pero moderada? Si la respuesta fuese positiva, ¿debería preocuparnos? La pregunta real, como en toda transformación tecnológica, tiene que ver con el rol del Estado que es quién debe utilizar su capacidad regulatoria y de articulación con el sector privado, para asegurar que los cambios no desguarnezcan a sectores de la población que la mera lógica del mercado podría considerar descartables.

Todas las revoluciones tecnológicas han generado una reconfiguración del mundo del trabajo que ha significado la desaparición de ciertos roles laborales y el surgimiento de nuevos. Sólo la participación del estado democrático en defensa de los intereses de las mayorías ha permitido que en muchas de las naciones que encabezaron estas transformaciones se preserven y se amplíen los derechos de los trabajadores. La manera en que se dé esa transición tecnológica será determinante para inclinar la balanza hacia una sociedad más justa o más injusta, y es obligación de los gobiernos nacionales intervenir para asegurar la igualdad de posibilidades.

No deja de sorprender cómo incluso cuando tanto las empresas de tecnología como las principales potencias mundiales están discutiendo cómo regular la Inteligencia Artificial para que su desarrollo sea beneficioso para el grueso de la población, algunas voces en nuestro país, insisten en su versión extemporánea de absolutizar la libre determinación del mercado.

El papel del Estado es particularmente importante en su capacidad de democratizar la producción, el acceso y la utilización de la IA. En este punto es urgente avanzar en la formación igualitaria de las nuevas generaciones para evitar que grandes sectores queden excluidos de la posibilidad de acceso a las nuevas tecnologías. Ello implica incorporar estos conocimientos desde los niveles básicos de la educación, que es donde participan la gran mayoría de nuestros niños y jóvenes. Pero no aspiramos a que nuestra población sea solo usuaria o “linkeadora” de estas producciones.

Debemos generar oportunidades educativas que permitan que grandes sectores de nuestra fuerza laboral también produzca contenidos y los coloque a disposición de la sociedad sosteniendo nuestros propios valores culturales y las necesidades de nuestro desarrollo económico y social soberano. Al mismo tiempo, es necesario invertir en desarrollar capacidades en nuestro sistema científico tecnológico para potenciar el aporte de nuestros investigadores a la generación de una producción de aplicación de la IA de acuerdo a las necesidades productivas nacionales y regionales.

El Plan de Ciencia y Tecnología 2030 elaborado por el Mincyt y donde se definen las prioridades de investigación para la próxima década, ha incorporado a la IA como uno de los grandes desafíos en los cuales debemos concentrar nuestros esfuerzos e inversiones. La Ley de Economía del Conocimiento genera las condiciones propicias para atraer inversiones privadas que son indispensables para potenciar su articulación virtuosa con el sistema científico tecnológico nacional.

Es bueno resaltar también algunas iniciativas locales que hacen uso muy positivo de la inteligencia artificial. La Fundación Sadosky del Ministerio de Ciencia, Tecnologia e Innovación, está incubando varios proyectos donde empresas argentinas junto a científicos y científicas de todo el país están aplicando IA para volumetría del cerebro, desarrollo de cannabis medicinal, apoyo a la inclusión social del autismo, diagnóstico temprano de Alzheimer, predicción del riesgo cardiovascular, entrenamiento de personal de salud, y varios otros proyectos que pueden consultarse aquí.

Cuando los proyectos son direccionados hacia el beneficio común, esta tecnología puede aportar mucho valor. En el caso de la salud, su potencial para identificar signos muy incipientes de enfermedades, mucho antes que las personas más entrenadas del área salud, es a esta altura innegable.

Nuestro país tiene una capacidad muy fuerte en IA. El reciente préstamo del BID por USD 35 millones gestionado por el Ministerio de Ciencia y la Agencia de I+D+i se utilizará para potenciarla mediante proyectos tanto de investigación pura como aplicada, dirigidos a grupos de investigación y a grupos mixtos entre institutos y empresas que propicien la transferencia de tecnología a los diferentes sectores productivos y de servicios..

La comunidad científica latinoamericana, en su reciente Declaración de Montevideo, enfatiza que «no hay valor social en tecnologías que simplifican tareas a unas pocas personas generando alto riesgo para la dignidad de muchas otras, limitando sus oportunidades de desarrollo, su acceso a recursos y sus derechos». Hace un llamado por una «inteligencia artificial centrada en las personas», que fortalezca la soberanía tecnológica de los países latinoamericanos. En definitiva, la discusión, como hemos planteado al inicio del presente texto, es quién regula el despliegue de una tecnología tan poderosa para garantizar de que sus beneficios favorezcan a toda la sociedad, sin excluidos.

Por Daniel Filmus y Fernando Schapachnik

VIAMincyt