Columna: La IA aprende mientras los humanos duermen

Los agentes de IA de Anthropic ahora repasan su trabajo entre sesiones, consolidan lo aprendido y mejoran solos. Snap despidió al 16% de su planta porque la IA ya genera el 65% de su código. Dos caras de la misma moneda.

Anthropic anunció esta semana una función que llamó «dreaming» —soñar, en inglés— para sus agentes de IA. La metáfora no es casual.

Lo que hace el sistema es sencillo de entender y difícil de subestimar: entre sesión y sesión, el agente repasa su historial de trabajo, identifica patrones, consolida lo que aprendió y descarta lo que ya no sirve. Como cuando un operario al final del turno revisa qué salió bien, qué falló, y arranca al día siguiente con eso incorporado. Solo que el agente lo hace solo, sin que nadie se lo pida.

El anuncio se hizo en el Code with Claude, la conferencia anual de desarrolladores de Anthropic, en San Francisco. Junto con el dreaming, la compañía llevó a beta pública otras dos funciones: outcomes, que permite definirle al agente qué es un resultado exitoso para que se autoevalúe, y orquestación multiagente, que deja que un agente principal divida tareas y las delegue a agentes especialistas que trabajan en paralelo. Las tres cosas juntas apuntan en la misma dirección: que el agente no solo ejecute, sino que aprenda, se corrija y coordine con otros sin intervención humana constante.

El caso concreto que trascendió es el de Harvey, una empresa de software legal que usa estos agentes para trabajo jurídico. Después de implementar el dreaming, la tasa de tareas completadas con éxito se multiplicó por seis. No es una mejora marginal. Es pasar de un sistema que repite errores a uno que los identifica y los corrige entre un turno y el siguiente.

Qué cambia con esto

Hasta ahora, un agente de IA era básicamente amnésico entre sesiones. Podías darle contexto al inicio de cada conversación, pero el aprendizaje se reiniciaba. Con este mecanismo, el agente acumula criterio. Se vuelve más útil cuanto más tiempo lo usás, y lo hace de manera autónoma, sin que vos tengas que enseñarle explícitamente.

Para los sectores productivos, el salto es importante. Un agente que analiza pedidos de logística, o que monitorea alertas de plagas en campo, o que revisa presupuestos de mantenimiento industrial, hoy pierde aprendizaje entre una sesión y la siguiente. Con un sistema como este, ese aprendizaje se acumula. El agente se ajusta al contexto específico de la empresa, no al contexto genérico con el que fue entrenado.

La otra cara: equipos más chicos, misma producción

Mientras esto pasaba, Snap —la empresa detrás de Snapchat— confirmaba que despidió a 1.000 personas, el 16% de su planta global. El CEO Evan Spiegel fue explícito en un memo a empleados que terminó publicado como filing ante la SEC: la IA ya genera el 65% del código nuevo de la compañía, y equipos más chicos con herramientas de IA alcanzan el mismo resultado que equipos grandes sin ella.

No es la primera empresa que usa este argumento para reducir personal, y no va a ser la última. Pero la diferencia con anuncios anteriores es que acá hay números concretos y un documento regulatorio que los respalda. No es «estamos explorando IA». Es «la IA ya hace la mayoría del trabajo técnico, y ajustamos la estructura en consecuencia». Las acciones de Snap subieron 11% tras el anuncio. El mercado leyó el mensaje.

El patrón que empieza a verse en el mundo empresarial global es el siguiente: la IA deja de ser una herramienta que la gente usa y pasa a ser infraestructura que opera de manera semi-autónoma. Los modelos mejoran solos, los agentes acumulan criterio, y los equipos humanos se achican alrededor de esa infraestructura.

Lo que esto significa acá

Para Argentina, esto no es una noticia de tecnología. Es una noticia de organización del trabajo y de competitividad.

Hay un diagnóstico que circula en el sector agro local y que aplica a casi toda la industria: comprar tecnología no es transformarse. La diferencia entre una empresa que incorpora IA y una que la usa bien está, cada vez más, en si esos sistemas acumulan conocimiento del negocio o si son apenas una capa cosmética sobre los procesos de siempre.

Un agente que «sueña» —que revisa sus propios errores y mejora— no es útil si no tiene acceso a los datos correctos, si no está integrado en los procesos reales, si nadie en la empresa sabe qué pedirle. La función es poderosa. El contexto en el que se despliega puede hacerla irrelevante o transformadora.

Eso es lo que va a separar a las empresas que aprovechan esta etapa de las que la dejan pasar mirando el catálogo de herramientas sin abrir ninguna.

Por Esteban Terranova