Ricardo Baeza-Yates (Santiago de Chile, 1961) comenzó a trabajar en algoritmos de búsqueda en cantidades masivas de datos varios años antes de que Internet hiciera su explosión, a finales de la década del 80. Su tesis de doctorado en Ciencias de la Computación en la Universidad de Waterloo (Canadá) proponía un sistema de búsqueda eficiente en el diccionario de inglés Oxford y a partir de entonces construyó una extensa carrera que combinó la academia con la industria tecnológica. Fue vicepresidente de los laboratorios de investigación de Yahoo durante varios años, trabajó en la empresa de búsqueda semántica NTENT y actualmente es director de Investigación del Instituto de Inteligencia Artificial (IA) Experiencial de la Northeastern University.
Si bien sus áreas de especialización son los algoritmos de búsqueda y la ciencia de datos, actualmente su trabajo en ética, sesgos y regulación en datos e IA ocupa buena parte de su rutina, campo en el que colabora con distintos organismos internacionales como el IEEE, la ACM y la Alianza Mundial en Inteligencia Artificial.
De visita en la Argentina, donde brindó una conferencia en el marco de la edición número 50 de la Conferencia Latinoamericana de Informática (CLEI) que se llevó a cabo en agosto pasado en la Universidad Nacional del Sur (Bahía Blanca), Baeza-Yates –que fue ganador hace pocos días del Premio Nacional de Ciencias Aplicadas y Tecnológicas 2024 de Chile, otorgado por el Ministerio de Educación de ese país–, habló sobre el giro que tomó en su profesión, sobre qué hacer con la IA en términos regulatorios y acerca del rol que puede tener América Latina en el desarrollo de modelos de IA generativa.
¿Por qué viniendo de una formación técnica decidió dedicarse a cuestiones que tienen que ver con el impacto de la tecnología en la sociedad?
Para mí fue un paso natural, de encontrarme con que muchas veces al hacer ciencia uno genera conocimiento, pero no impacto social con lo que hace. Entonces, primero pasé a trabajar en la industria. Ahí me resultó interesante ver cómo uno puede hacer un sistema algorítmico que puede ser usado por mucha gente. Trabajando en Yahoo tuve la oportunidad de que millones de personas usaran la tecnología que yo construía. Pero el impacto del desarrollo de tecnología no es necesariamente positivo. Y ahí entonces me interesé en estudiar los sesgos que hay en los sistemas algorítmicos, como en los sistemas de búsqueda, por ejemplo, que era mi especialidad. Y ahí, naturalmente, si uno trabaja en los sesgos y el impacto social, uno pasa a la ética, a la responsabilidad en el desarrollo y aplicación de estas tecnologías, a la intención de influir en políticas públicas. Así fue que empecé a trabajar con la ACM (la Asociación de Maquinaria Computacional) como coautor de los nuevos principios de los sistemas algorítmicos responsables.
Usted ha dicho que la regulación sobre la inteligencia artificial puede resultar problemática. En el mundo conviven posturas más restrictivas como la europea y otras posturas menos intervencionistas, como la estadounidense. ¿Qué piensa al respecto?
Primero me gustaría decir que tenemos un problema cuando hablamos de la regulación del uso de la tecnología porque no estamos hablando solo de tecnología. Es como decir “no puedes golpear a una persona con un martillo”, cuando en realidad debería ser “no puedes golpear a una persona, me da lo mismo lo que uses”. Ese es el problema que tenemos hoy en día. Creo que la regulación debería ser sectorial y orientada al problema. No me importa la tecnología que uses, lo importante es que cumplas las reglas. Ese es el primer problema porque, si tomamos este camino, en el futuro vamos a tener que regular el uso de blockchain, el de la computación cuántica, el uso de cualquier cosa nueva que tengamos y eso va a tener que ser consistente con todo lo que tengamos antes. Es un camino árido que tal vez solamente le dará trabajo a los abogados. El segundo problema es que, en realidad, no se necesita usar inteligencia artificial para hacerle daño a las personas. Por eso desde la ACM hablamos de sistemas algorítmicos responsables, es decir, cualquier tipo de software. Porque alguien podría decir que no estaba usando IA sino estadísticas sofisticadas o, como se decía en los noventa, un sistema experto. Y el tercer problema que hay, sobre todo en la regulación europea, es el concepto de riesgo, que es un tema que no sabemos medir bien. Generamos categorías que no existen porque el riesgo es una variable continua, hay muchos problemas en la evaluación y en la medición de cuál va a ser el riesgo de una tecnología. Creo nos estamos metiendo en problemas con esto.
En la Argentina, la postura del Gobierno es no regular y apostar a que esa baja intervención del Estado permita convertir al país en un polo de IA. ¿Qué opina al respecto?
Bueno, es una perspectiva muy capitalista, una mirada muy comercial. A mí me parece que esa postura de no intervenir repite el mismo error que ya hemos cometido tantas veces en la historia de la humanidad con el uso de la tecnología. El verdadero peligro de cara al futuro es que quienes dominan estas tecnologías puedan abusar del resto del planeta de alguna manera mucho más sutil que antes, mediante la manipulación política y el colonialismo cultural, por ejemplo. Si alguien domina una tecnología como la IA, esa cultura también va a dominar globalmente. Hoy en día, en el mundo occidental un promt en cualquier idioma se traduce al inglés y luego se traduce de vuelta al idioma para dar un resultado. Ahí entran en juego sesgos y hasta censura en temas que puedan ser controversiales. Estamos hablando de modelos entrenados con datos con sesgos culturales, demográficos, de todo tipo.
La gran pregunta es qué lugar le queda entonces a regiones como América Latina en la carrera mundial por la inteligencia artificial, no solo para preservar cuestiones culturales y de soberanía, sino para no quedar limitados a ser solo usuarios de estas tecnologías.
En el desarrollo de la tecnología estamos atrás con respecto a los países más poderosos, es una realidad. Creo que hay que aprovechar los temas donde tenemos alguna ventaja competitiva, como el idioma. El castellano es el segundo idioma más hablado del mundo, eso es una ventaja y creo que podríamos tener un modelo hecho con contenido menos sesgado y que preserve aspectos de la cultura iberoamericana. Para América Latina podrían ser modelos mucho mejores que los actuales, que estén basados en nuestra cultura y en idiomas como el portugués y español. También creo que tenemos la oportunidad, como región, de dar un buen ejemplo al resto del mundo, por ejemplo, regulando el uso de la tecnología de otra manera, hacerlo bien.
¿Qué pensó cuando se publicó la carta encabezada por Elon Musk pidiendo que se detuviera la investigación en IA?
Lamentablemente, yo la firmé y es una de las pocas cosas de las que me arrepiento en mi vida porque después me di cuenta que había un cinismo muy grande en esa campaña por parte de él, que seguía trabajando en proyectos de IA en sus empresas. También porque no tenía mucho sentido parar el avance en la investigación porque el problema es el uso de la tecnología. Son problemas sociales antes que tecnológicos. Hace un tiempo tuve una reunión con un funcionario chino que me contó sobre el viaje de Elon Musk a China para que se aprobara (el chatbot de IA) Grok y se pudiera empezar a usar allá. Porque la primera regulación nacional que existe sobre IA generativa es de China, desde julio del año, y cada modelo nuevo tiene que ser aprobado por el gobierno chino. Eso es muy interesante porque al menos te da un cierto control de que alguien miró el nivel de calidad de esos modelos, sobre todo si van a ser usado por cientos de millones de personas. China sabe lo que hace, entienden que la desinformación puede causar la caída de cualquier gobierno.
También hay preocupación por la salud mental en relación a las aplicaciones terapéuticas basadas en modelos de IA generativa.
Hay un problema grande con el uso de estas tecnologías y la sanidad mental, es algo sobre lo que hablo en mis charlas. Estos sistemas son de alguna manera humanizados por muchas personas y terminan en experiencias que no son sanas. Acá en Argentina me acaban de contar del caso de un padre que habla con su hijo muerto en una aplicación. Estamos generando experiencias que no son saludables y tenemos que poner límites, son casos de aplicaciones no éticas de la IA.
¿El hecho de imponer una función de IA en una aplicación también lo es? Tenemos el caso de Meta, que, a diferencia de lo que sucede en Europa por la regulación, en la Argentina y otros países no permite desinstalar su función de IA en la aplicación de WhatsApp.
Hay una especie de consentimiento forzado que no es ético. Es un ejemplo muy claro de que el producto somos nosotros, que nuestros datos van a ser usados. Más allá de esto, creo que un sistema más justo sería que todas esas ganancias por publicidad de estas empresas, generadas a partir de nuestros datos, sean compartidas por las empresas con los usuarios que los aportan. Necesitaríamos un sistema más justo que el actual, que es casi de abuso.
El entrenamiento de los modelos también impacta en nuestros consumos, ya que las sugerencias que nos realizan los algoritmos suelen reforzar lo que solemos elegir, con lo que se pierde el factor sorpresa en las decisiones. ¿Cómo se sale de estas burbujas?
No es que el sistema sepa todo, sabe lo que nosotros sabemos. La única forma de romper esa burbuja es permitir que haya muchos mecanismos que sean, por ejemplo, aleatorios. Yo hablo de un principio que llamo “mi lado oculto”, que consiste en una recomendación que sea exactamente lo que yo no quiero, lo más lejano. Eso debería ser una posibilidad. Creo que los sistemas de recomendaciones deberían darle más control al usuario, que yo pueda elegir cómo el algoritmo va a funcionar. Por ejemplo, si quiero, que en comida me mantenga en mi burbuja, pero que en la música no lo haga, que no se limite a reforzar lo que me gusta. También considero que deberíamos tener más voluntad para decidir cómo usar la tecnología en vez de que la tecnología nos use.
A medida que se complejizan los modelos de IA, su funcionamiento se vuelve más opaco. ¿Cómo lidiar con eso en términos de los problemas que puede generar no saber cómo operan, más allá de que su resultado pueda ser satisfactorio?
En un sistema que usa aprendizaje profundo con cientos de millones de parámetros ya no se puede predecir el resultado. Hay técnicas de explicabilidad, pero son ex post. Y, como son tantos parámetros, puedo hacer un número increíble de explicaciones sobre por qué funcionó de una manera u otra. Sí puedo tener interpretabilidad, puedo saber cómo trabaja el árbol de decisión de un modelo algorítmico, yo prefiero eso. Como sociedad deberíamos exigir que no haya sistemas, sobre todo en áreas críticas, que funcionen como una caja negra.
Bruno Massare