La inteligencia artificial y los ciclos de innovación en la ciencia

Uno de los ensayos económicos más influyentes sobre innovación en este siglo dedica varios párrafos a contar la vida y los “momentos Eureka” (esos en los que surgieron sus grandes ideas) de inventores del pasado. El economista Benjamin Jones (de Kellog y Northwestern) recuerda que Isaac Newton comenzó a inventar el cálculo cuando tenía 23 años. Gottfried Leibniz, otro de los pioneros en este campo, hizo su aporte muy temprano, a sus 28 años.

A Leibniz se lo conoce como “el último genio universal”: era polímata, filósofo, matemático, jurista, teólogo, político y bibliotecario. Pudo formarse y realizar contribuciones en campos muy diversos antes de la era de la especialización. Newton reconoció que sus aportes fueron realizados gracias a que estaba “parado sobre hombros de gigantes”: se refería al conocimiento de otros genios que lo precedieron, y que resultó clave para pulir las nuevas ideas.

Jones tituló su paper sobre innovación La carga del conocimiento y la muerte del hombre renacentista: ¿la innovación se está volviendo más difícil?.

Por esta “maldición”, el economista se refiere al hecho de que a medida que el conocimiento se va acumulando, lleva más tiempo llegar a la frontera para realizar contribuciones adicionales. La edad promedio del pico de fertilidad de un inventor en 1900 era de 30 años; un siglo más tarde superaba los 40, y hoy se acerca a los 50. La ventana de oportunidad se angostó, dice Jones y, por lo tanto, esto es consistente con un menor ritmo de innovación.

Esto fue así por miles de años de historia humana, pero podría estar cambiando radicalmente con el boom de inteligencia artificial, y en particular con el de IA generativa, que vino desplegándose este año. La IA no sufre de esta “maldición” o carga, no se muere ni se degrada, simplemente mejora, dice el emprendedor Mario Gabriele en su sitio The Generalist.

Hay una figura interesante para describir esta eventual desaparición de la maldición o peso del conocimiento, que refuerza la idea de que el ciclo de innovación motorizado por la IA generativa podría ser algo nunca visto hasta ahora. Se le ocurrió al tecnólogo y empresario Juan Santiago, CEO de la empresa con base en San Diego y Córdoba, Santex: “Supongamos que entramos a una biblioteca en la que hay millones de libros. Uno de entrada tiene la capacidad de leer 100 volúmenes por año, y con esfuerzo y nuevos métodos puede pasar a leer 500 o 1000 libros por año: eso equivale a las tecnologías de crecimiento exponencial que vimos hasta ahora”, plantea Santiago, socio de varias empresas de IA y con presencia en 20 países.

“Pero con IA generativa, de golpe entrás a la biblioteca y leíste todos los libros que pueden dialogar y relacionarse entre sí. Es un salto completamente distinto a lo que vimos hasta ahora”, agrega.

Hay dos conceptos con gran impacto en el tejido social a medida que la IA avanza, según considera. “El primero es la IAG (inteligencia artificial generativa) que, a través del entrenamiento del ingreso de datos –usualmente sesgados, por defecto, no necesariamente con intención, pero sesgados al fin–, acompañado de una capacidad infinita de cómputo, pone muy por detrás la capacidad humana de procesamiento de contenido; y el segundo tiene que ver con la capacidad de la IAG de relacionamiento de esa información para crear datos nuevos que ingresan al tejido social de manera rápida y sin mucho filtro, análisis o debate previo”.

La expansión del fenómeno generativo es lo que se conoce en inglés como swarming (enjambre): una forma de inteligencia colectiva y de toma de decisiones descentralizada y autoorganizada en distintos sistemas. “Esto significa que ya existe la clusterización de muchas AI que hablan entre sí y que, de manera autónoma, pueden tomar una decisión sin intervención humana. Esto ya sucede en el ámbito militar de los Estados Unidos”, dice Santiago.

El filósofo Pierre Bourdieu sostiene que la IA va a tener un impacto cada vez más significativo en la “redistribución” del capital social en general, empezando por el habitus (socialización), sobre todo por la manera en la que nos relacionamos desde las redes, afectando las reglas de juego en la escala socioeconómica cultural como la entendemos hoy.

“Si ‘la información es poder’, sería absolutamente lógico que el poder sea cada vez más volátil en su concentración y permanencia, excepto para aquellos que se paren desde las fuentes, los OpenAI, Googles, cuyos poderes serán permanentes y absolutos”, marca el empresario.

El físico ruso Andrei Vazhnov, especialista en tecnologías exponenciales, vive en Montevideo, pero hace dos semanas estuvo en Francia, en la sede central de la empresa para la cual trabaja en forma remota. “Fui al museo de matemáticas en París –me contó Vazhnov, con quien escribimos en 2017 el libro Modo esponja (Sudamericana)–. Es un museo nuevo, inaugurado el 30 de septiembre de este año. En la entrada hay una cita de Henri Poincaré, tal vez el matemático más conocido de Francia, quien es el epónimo del museo. La cita, de su libro Ciencia y método, dice: ‘De hecho, ¿qué es la creación matemática? No consiste en hacer nuevas combinaciones con entidades matemáticas ya conocidas. Cualquiera podría hacer eso, pero las combinaciones serían infinitas en número y la mayoría de ellas, absolutamente sin interés. Crear consiste precisamente en no hacer combinaciones inútiles y en hacer las que son útiles y que son solo una pequeña minoría. La invención es discernimiento, es elección’”.

Este razonamiento, agrega Vazhnov, aplica más allá de las matemáticas. Según el pensamiento de Karl Popper, toda la ciencia consiste principalmente en proponer hipótesis y testearlas. Y hay muchas más hipótesis inútiles que las que vale la pena invertir recursos para testear. Este desafío crece a medida que sabemos más cosas. Contando con una base de conocimiento más grande, es mucho más fácil construir hipótesis inútiles. Para citar a otro grande, el físico John Archibald Wheeler (el originador del término “agujeros negros”, entre muchísimas otras cosas): “Cuanto más grande es la isla de nuestro conocimiento, más larga es la costa de nuestra ignorancia”.

¿Puede la IA generativa acortar el camino de “discernimiento y elección” del que habla Poincaré?, se pregunta Vazhnov. En algunos casos, sí. Por caso, en ciencia de materiales y farmacología. Ahí es un problema de reconocimiento de patrones con cualidades a priori conocidas.

Pero, por supuesto, esto funcionaría solo en los casos en los que la solución es posible y se puede reconocer cuando se presenta. Por otro lado, la ciencia está llena de ejemplos de que los avances más importantes se hacen sin buscar algo específico. “Cuando Evariste Galois descubrió la teoría de grupos en la primera mitad del siglo XIX, nadie entendió su importancia, y el famoso matemático Simeon Poisson lo llamó incomprensible. Pero 100 años después fue fundacional para la física cuántica”, ejemplifica.

“Así que si estamos buscando algo que ya sabemos qué es, la IA generativa va a ayudar mucho, pero no va a cubrir estos casos insólitos que empujan los saltos teóricos más grandes. Esto no significa que va a tener poco impacto; va a tener muchísimo. Pero el impacto de algún modo abstracto va a ser parecido al descubrimiento del logaritmo y de la calculadora: vamos a poder avanzar mucho más rápido en las direcciones donde el camino ya está marcado”, concluye Vazhnov.

Sebastián Campanario

VIALa Nacion