INVAP equipa la defensa antiaérea argentina con radares RPA-200M. Analizamos el tema

0

Diseñado y fabricado por INVAP, empresa nacional de tecnología de alta complejidad, el RPA-200M es un radar móvil tridimensional que permite la detección y el seguimiento simultáneo de más de mil blancos.

Este radar integra distintas tecnologías complementarias, posibilitando la detección de aeronaves en un amplio rango de altitudes y distancias, lo cual lo convierte en una herramienta eficaz para la vigilancia y el control del espacio aéreo.

Se trata de un sistema compacto, de fácil transporte y rápido despliegue, y puede funcionar de forma local o remota con mínima dotación de personal. Estas características amplían significativamente su versatilidad y permiten la adaptación a situaciones y escenarios operativos diversos.

La incorporación de este radar refleja un avance concreto en el proceso de modernización de las capacidades operativas de la Fuerza, a la vez que consolida el empleo de tecnología de desarrollo nacional en materia de defensa.

Comentario de AgendAR:

Vivan los radares de INVAP, pero …

Sin duda esto mejora las capacidades de detección aproximada: estos no son radares de tiro sino de detección temprana.

Radares de tiro a INVAP no se los piden jamás, porque a un intruso con malas intenciones no hay nada qué tirarle ni con qué.

No ciertamente con los aviones entrenadores Pampa 3. No tienen la velocidad, el radar a bordo para localización exacta y puntería, tampoco cañones ni misiles.

Algunos de estos ítems se les pueden adosar bajo las alas o el fuselaje, pero con una degradación de velocidad, maniobrabilidad, trepada y alcance.

Lo dicho, son entrenadores, de los mejores que hay. Pero no interceptores. Y además son pocos.

Tampoco hay misiles antiaéreos aire-tierra de mediano o largo alcance que puedan dar cuenta de intrusos hostiles. Son armas que INVAP podría desarrollar junto con proveedores aeronáuticos calificados, sean nacionales, sudafricanos, brasileños. Proveedores, tenemos unos 15, nos faltan. Socios externos posibles hay, sobre todo en un momento en que la OTAN está fracturándose

La Fuerza Aérea abandonó hace mucho el desarrollo de misiles de todo tipo: la cancelación por parte de Carlos Menem del Cóndor 2, un balístico tierra-tierra, vino con decapitación de oficiales ligados a este proyecto casi terminado. Y el que se quemó con lecha, ve una vaca y llora.

De hecho, también se decapitó de la Fuerza Aérea a los pilotos veteranos de Malvinas que habían ascendido a comodoros y brigadieres. Fueron los primero oficiales de la fuerza en exigir radares nacionales, porque si tu hipótesis de conflicto es el Reino Unido, los radares viejos de países de la OTAN los gringos te los interfieren o «spoofean» (le suministran información falsa) sin tener que sudar mucho la camiseta.

Pongo por caso entre 2 y 3 misiles aire-mar AM39 Exocet que fallaron el blanco y cayeron en el mar. Después del hundimiento del HMS Sheffield, el 4 de mayo, la firma francesa constructora, Aérospatiale, le suministró a la Royal Navy los códigos numéricos para discapacitar el radar de puntería en vuelo terminal de ese misil. Y esa interferencia electrónica a distancia salvó al menos a un portaaviones de la Royal Navy el 25 de mayo de 1982.

Los propulsores de los radares argentos fueron echados, tras juicios amañados, con la acusación de narcotraficantes, por el judicial más podrido de la historia del siglo XX, a pedido del primer Ejecutivo abiertamente narco del país, y por exigencia del embajador de ya saben qué país.

Los multimedios se plegaron a este «relato», como se dice de los camelos cuando son inmensos. Los medios chicos, por su tradición antimilitarista, no entendían cuántos pares son tres botas. Repetían desganadamente «el relato».

Festejo estos radares de INVAP porque costaron carreras, reputaciones de héroes condecorados, y -como dijo Churchill- sangre, sudor y lágrimas.

Cada vez tenemos más ojos para detectar intrusos, entre hostiles y narcos. Ningún país del hemisferio sur tiene estas capacidades, salvo Australia.

Lo que no tenemos es la tecnología para interceptarlos, obligarlos a bajar, y caso contrario, bajarlos.

Esto no se arregla con F-16 de 4 décadas de antigüedad, con un resto de vida útil, y un costo de cada hora de vuelo de U$ 5000.

Si alguien quiere joderte en serio, te hace despegar indefinidamente al cuete, hasta que los aviones, los motores, los repuestos, los pilotos y los fondos, que ya no dan más.

Los misiles son más baratos. ¿El lector ve muchos aviones rusos o ucranianos operando en los cielos de Ucrania? Y en una guerra muy asimétrica, como la de Israel y EEUU contra Irán, éste perdió en tres días toda su fuerza aérea de cazas multirrol, hecha de aviones tan viejos como los F-16 que nos zamparon. Pero las baterías antiaéreas iraníes lograron algunos derribos, y los drones baratísimos de Irán, los Shahed, destruyeron bocha de aviones enemigos en tierra. Literalmente, los iraníes están luchando con palos y piedras, y dada la disparidad de medios, en términos militares, diplomáticos y propagandísticos, para ganar les alcanza con no perder.

La de Malvinas fue hace 44 años, pero los gringos siguen con el trauma de 7 barcos en el fondo y unos cuantos más que volvieron muy remendados y navegando despacito. Y están decididos a sacarnos de nuestro propio cielo. Nos calman con chupetines como los F-16, cuando berreamos que nos estamos quedando sin pilotos de caza.

Y es cierto. Pero hay prioridades de las que jamás se hablan. Quiero baterías antiaéreas enteras no sólo radares, y con misiles, y además, propios. Como dicen los gringos, «area denial», que los pilotos de Avellaneda traducen como «metete en mis cielos y sos boleta».

Ninguna fuerza armada de nuestro país tiene otros misiles antiaéreos que algunos pocos SAAB de infantería, limitados a aviones a baja altura (no más de 5000 metros) y con detección y apuntamiento visual. Obviamente, tampoco tenemos los drones ni misiles crucero o balísticos necesarios para disuadir a nadie de atacarnos.

Cielos abiertos, los de mi país.

Daniel E. Arias

Los científicos humanos superan a los mejores agentes de IA en tareas complejas.

0

Como indicación de la rapidez con la que los científicos están adoptando la inteligencia artificial, el número de publicaciones en ciencias naturales que mencionan la IA creció casi 30 veces entre 2010 y 2025, según un influyente informe anual sobre el estado del campo.

La proporción de publicaciones en cualquier campo de las ciencias naturales que mencionan la IA oscila entre el 6 % y el 9 % (véase «El auge de los artículos sobre IA»), según el Informe del Índice de Inteligencia Artificial 2026, publicado hoy por el Instituto de IA Centrada en el Ser Humano de la Universidad de Stanford en California.

«Los científicos han adoptado realmente esta era de la IA», dice la informática Yolanda Gil, de la Universidad del Sur de California en Los Ángeles, quien dirigió el informe del índice de este año.

AI PAPER BOOM. Chart shows the number of natural-science publications that mention artificial intelligence from 2010 to 2025. Data shows a sharp increase from 2015 onwards.
Source: Artificial Intelligence Index Report 2026

Junto con el auge de las publicaciones científicas relacionadas con la IA, el informe también enumera una serie de modelos fundacionales de ciencia recientemente publicados: modelos de IA que están ampliamente entrenados para realizar una amplia gama de tareas, pero también especialmente entrenados en conjuntos de datos masivos de un dominio científico específico.

Muchos investigadores han empezado a confiar en los «agentes» de IA que realizan de forma autónoma acciones que incluyen flujos de trabajo científicos, pero el informe se muestra escéptico sobre su rendimiento. Los agentes de IA todavía tienen dificultades para realizar flujos de trabajo de varios pasos de forma fiable, según el informe, y los mejores agentes de IA obtienen aproximadamente la mitad de puntuación que los especialistas humanos con doctorado. «Los agentes son maravillosos, pero todavía estamos lejos de un punto en el que sepamos cómo utilizarlos eficazmente», afirma Gil.

Número creciente

El informe dice que en 2025, más de 80.000 artículos, preimpresiones y otros tipos de publicaciones en ciencias naturales —que incluyen las ciencias de la vida, físicas y de la Tierra— mencionaron la IA, un 26% más que en 2024. La subcategoría de ciencias físicas fue la que tuvo el mayor número de publicaciones que mencionan la IA (33.000). La categoría de ciencias de la Tierra tuvo el porcentaje más alto (9 %).

El auge de los artículos científicos relacionados con la IA «no es sorprendente», afirma el informático Arvind Narayanan, de la Universidad de Princeton (Nueva Jersey), que no participó en la creación del índice. Pero no está claro, dice, si el aumento del uso de la IA es productivo para la ciencia. «Si este crecimiento explosivo es significativo o no es algo muy debatido», dice Narayanan. «Mi opinión es que está sucediendo demasiado rápido, sin dar tiempo a que las normas científicas se ajusten, y por lo tanto la calidad de la investigación se ha desplomado».

Gil afirma que todavía no hay muchas pruebas de que la IA esté mejorando la productividad de los científicos. «Los estudios son limitados», dice. Pero, añade, los científicos “no pueden vivir sin ella”. Si les quitaras la IA, habría un motín. Así que debe estar ayudando de alguna manera.

Los mejores modelos

A medida que ha aumentado la adopción, también lo ha hecho el número de plataformas de IA disponibles para los investigadores. El año pasado surgieron muchos modelos de fundaciones científicas, incluido el primero para la astronomía, AION-1, que fue entrenado con más de 200 millones de objetos celestes. Este entrenamiento le ayuda a clasificar galaxias o a estimar sus propiedades. «Cuando hablé con científicos en 2024 y les dije ‘Existen modelos fundacionales para la ciencia’, los científicos no sabrían lo que eso significa. No sabían que existían. «Creo que hemos visto que ha avanzado muy rápido», dice Gil.

El rendimiento de los modelos fundacionales de propósito general, que incluyen modelos de lenguaje grandes (LLM) como los utilizados por los chatbots, en pruebas de nivel experto continuó mejorando rápidamente en 2025, según el índice. «Sigo pensando: el año que viene se va a estancar. Y no lo hace —dice Gil. Sin embargo, estos modelos de IA de primer nivel todavía cometen errores básicos, como leer incorrectamente los relojes analógicos el 50 % de las veces.

En una nota positiva, los modelos que generan vídeos «están empezando a aprender cómo funciona realmente el mundo físico», según el índice. La comunidad de IA ha esperado durante mucho tiempo que los modelos de IA sean capaces de aprender las reglas básicas de la física que rigen nuestro mundo, como la forma en que la gravedad afecta a una pelota que rebota. En 2025, el modelo de vídeo Veo 3 de Google DeepMind fue capaz de simular fenómenos como la flotabilidad sin haber sido entrenado para ello. Pero aún queda un largo camino por recorrer, dice Narayanan. «A pesar de algunos pequeños éxitos», dice, «el sueño parece bastante lejano».

Habilidades agentivas

En 2025 surgieron varias pruebas de referencia para evaluar el rendimiento de los agentes de IA en tareas relevantes para la ciencia. Una prueba llamada PaperArena, por ejemplo, proporciona a los agentes basados en LLM una pregunta de investigación y luego evalúa su capacidad para «formular un plan de razonamiento, interactuar con múltiples artículos e invocar las herramientas adecuadas para producir una respuesta bien fundamentada», según la preimpresión que describe ese punto de referencia (la preimpresión aún no ha sido revisada por pares). En esta prueba, incluso el mejor modelo de lenguaje grande que impulsa a un agente experto logró una precisión de solo el 39 %.

Narayanan tiene una visión más positiva de lo que los agentes pueden lograr de lo que implican los resultados de PaperBench. En noviembre, su propio equipo demostró que los agentes pueden superar una prueba de referencia para reproducir resultados computacionales en artículos científicos, dice. «Obviamente, hay mucho bombo y platillo en torno a los agentes, pero ya son extremadamente útiles para los investigadores como herramientas para ahorrar tiempo».

El uso de agentes de IA forma parte de una tendencia general de los científicos que utilizan herramientas de IA no solo para el análisis de datos, sino también para intentos más amplios de generación y descubrimiento de hipótesis. Eso es emocionante, pero el índice concluye que, por ahora, «la lista de descubrimientos de IA confirmados experimentalmente sigue siendo corta».

Nicola Jones

Argentina exhibe liderazgo regional en tecnología nuclear, aunque congela el CAREM

0

Argentina volvió a posicionarse como uno de los actores centrales del desarrollo nuclear en América Latina al participar de la segunda edición del SMR School organizado por el Organismo Internacional de Energía Atómica (OIEA), que se realizó en Asunción, Paraguay.

El encuentro reunió a representantes de países de la región, organismos internacionales y referentes del sector con el objetivo de intercambiar experiencias y fortalecer capacidades en torno a los reactores modulares pequeños (SMR), una de las tecnologías más prometedoras para el futuro de la energía.

La delegación argentina estuvo encabezada por el secretario de Asuntos Nucleares, Federico Ramos Nápoli, quien destacó el posicionamiento del país como proveedor de conocimiento y servicios en el desarrollo nuclear.

Una trayectoria que respalda el posicionamiento argentino

Durante su intervención, Ramos Nápoli puso en valor la experiencia acumulada por Argentina a lo largo de décadas en el sector nuclear, así como su capacidad para acompañar a otros países en el desarrollo de sus programas.

El funcionario subrayó que el país no solo cuenta con capacidades tecnológicas, sino también con experiencia en todas las etapas de la cadena de valor, desde el diseño y la ingeniería hasta la operación y el ciclo de combustible.

En ese sentido, afirmó que Argentina está en condiciones de brindar apoyo a aquellos países que están dando sus primeros pasos en el sector nuclear, al tiempo que remarcó la necesidad de fortalecer la formación de recursos humanos.

La capacitación aparece como un eje central en el desarrollo de esta industria, especialmente en un contexto donde la demanda de profesionales especializados crece a nivel global.

Los SMR, en el centro de la agenda energética

El evento estuvo enfocado en el desarrollo de los SMR, una tecnología que gana protagonismo en el mundo por su flexibilidad, menores costos iniciales y capacidad de adaptación a diferentes sistemas energéticos.

La comitiva argentina, encabezada por Federico Ramos Nápoli, destacó las capacidades locales y el potencial de cooperación regional en energía nuclear.
La comitiva argentina, encabezada por Federico Ramos Nápoli, destacó las capacidades locales y el potencial de cooperación regional en energía nuclear.

Durante las jornadas se abordaron aspectos clave como la planificación de proyectos, los marcos regulatorios, los esquemas de financiamiento y la preparación para la operación de estas nuevas tecnologías.

La apertura del encuentro estuvo a cargo del director general del OIEA, Rafael Grossi, quien participó de manera virtual y destacó la importancia de la cooperación internacional para garantizar un desarrollo seguro y sostenible de la energía nuclear.

El aporte de la industria argentina

La presencia argentina no se limitó al plano institucional. La delegación incluyó a representantes de organismos y empresas clave del sector, como la Comisión Nacional de Energía Atómica (CNEA), Nucleoeléctrica Argentina, CONUAR, Dioxitek y Uramerica. Estos actores compartieron su experiencia en distintos segmentos de la industria, mostrando el carácter integrado del desarrollo nuclear argentino.

En ese marco, el presidente de Nucleoeléctrica Argentina, Juan Martín Campos, participó de un panel sobre planificación de proyectos y modelos de inversión, donde puso el foco en los desafíos asociados a la implementación de nuevas tecnologías.

“El desarrollo nuclear comienza mucho antes de la construcción de un reactor”, señaló, al remarcar la importancia de contar con marcos regulatorios sólidos, capacidades técnicas locales y organizaciones preparadas para garantizar una operación segura desde el inicio.

Cooperación regional y proyección internacional

El encuentro concluyó con espacios de intercambio entre los participantes, orientados a fortalecer la cooperación regional y promover el desarrollo de la energía nuclear como una fuente segura, confiable y escalable.

En ese contexto, la participación argentina consolidó su rol como referente en América Latina, no solo por su trayectoria histórica, sino también por su capacidad de adaptación a las nuevas tendencias tecnológicas.

La apuesta por los SMR y la articulación con otros países de la región forman parte de una estrategia más amplia para posicionar a la Argentina en el nuevo escenario energético global, donde la energía nuclear vuelve a ganar protagonismo como complemento clave de la transición energética.

Destacamento 201, la unidad del Ejército de EE UU dirigida por ejecutivos de gigantes tecnológicos

0

La imagen habla por sí sola: Andrew Bosworth, jefe de tecnología de Meta y hombre de confianza de Mark Zuckerberg, viste de uniforme junto a otros tres ejecutivos de grandes tecnológicas en el cuartel Myer-Henderson Hall, a menos de diez minutos en coche del Pentágono. Los cuatro, con la mano levantada en señal de juramento, lucen en la gorra la insignia de hoja de roble propia del rango de teniente coronel. La instantánea es del 13 de junio del año pasado y se tomó durante la ceremonia especial de presentación del llamado Destacamento 201, o Cuerpo Ejecutivo de Innovación, una iniciativa “diseñada para fusionar los conocimientos tecnológicos más avanzados con la innovación militar”. A Bosworth, o Boz, le acompañaban Kevin Weil, responsable de producto de OpenAI; Shyam Sankar, director de tecnología en Palantir, y Bob McGrew, exdirectivo de Palantir y OpenAI.

El vínculo entre el Pentágono y las grandes desarrolladoras de sistemas de inteligencia artificial (IA) dejó de ser en ese momento exclusivamente comercial: desde entonces, algunos de sus ejecutivos tienen galones, literalmente, en el ejército más poderoso del mundo, al que se han incorporado como reservistas. “Sus habilidades únicas serán fundamentales para modernizar nuestras capacidades y garantizar que sigamos a la vanguardia del avance tecnológico”, destacó el secretario del Ejército, Dan Driscoll.

La medida es inédita. Y no sentó muy bien entre muchos militares. Que se le diera el rango de teniente coronel a cuatro civiles tras un entrenamiento concentrado en apenas cuatro semanas, cuando esa graduación suele requerir entre 15 y 20 años de carrera, fue visto como un trato de favor. La formación no debió ser muy intensa, como se desprende de que a dos de los ejecutivos (McGrew y Weil) se les olvidara hacerle el saludo militar al general Randy A. George cuando este les felicita tras el juramento.

“El hecho de que se les haya decidido conceder rango militar, y no estatus de asesores técnicos del Ejército, tiene implicaciones profundas para la cultura militar, la integridad ética y la confianza pública”, escribió, por ejemplo, Shannon Szukala, analista de seguridad y veterano de la guerra de Irak. “Básicamente, devalúa el sacrificio y compromiso a largo plazo que representa la carrera de un oficial comisionado”.

“Se podría haber recurrido a la fórmula habitual de incorporar a los directivos en los puestos más bajos del escalafón, pero eso les habría colocado en una situación de difícil interlocución directa y natural con los mandos”, opina Ángel Gómez de Ágreda, piloto y coronel del Ejército del Aire y del Espacio en la reserva. “Es evidente que la intención era tratar de visibilizar la cooperación entre las Fuerzas Armadas estadounidenses y las empresas representadas, que se han elegido cuidadosamente, y de situarla en un nivel adecuado”, apunta este analista especializado en ciberseguridad e IA, que acaba de publicar dos libros, Un mundo falaz (Ariel) e Inteligencia artificial y defensa (Catarata, junto a Enrique Martín Romero).

Conflicto de intereses

A nadie le pasó desapercibido que la Administración Trump le ha dado galones a directivos que trabajan en compañías que tienen contratos activos con el Pentágono. Palantir, la empresa en la que trabaja el teniente coronel Sankar, es el proveedor del software Gotham, usado por los servicios de Inteligencia y del Departamento de Guerra, así como uno de los pilares de Maven (junto a Anduril, AWS o Anthropic, hasta que Trump le vetó en febrero), un programa para implantar el uso de IA en labores de inteligencia, misiones de reconocimiento o selección de objetivos. En total, se estima que la empresa fundada por Peter Thiel tiene decenas de contratos que le atan al Pentágono durante la próxima década con un valor potencial de unos 10.000 millones de dólares.

Bosworth, por su parte, es una figura clave en Meta, empresa que tiene un acuerdo con Anduril para desarrollar productos integrados de realidad virtual para el Ejército. Boz contó en X por qué eligieron ese nombre para su destacamento: es una referencia al código de estado HTTP 201, que significa que un recurso se ha creado con éxito.

OpenAI, la empresa en la que trabaja Weil y en la que militó McGrew, ya tenía acuerdos con el Pentágono y acaba de heredar los contratos que tenía hasta ahora Anthropic, recientemente caída en desgracia por no querer abrir su código al Ejército.

Los cuatro ejecutivos tendrán que servir en el Ejército al menos 120 horas al año, que podrán desarrollarse en remoto. Su función será la de asesorar en la integración de tecnologías que, a menudo, procederán de las compañías que les pagan el sueldo.

Silicon Valley entra en el Pentágono

El coqueteo de Donald Trump con las grandes tecnológicas ha sido una constante desde su vuelta a la Casa Blanca. Aunque esa buena sintonía no siempre ha existido. En su primer mandato, las relaciones con los tecnomagnates fueron tensas. Les acusó de ser liberales (que en EE UU se entiende como progresista) y llegó a sugerir que intentaría encarcelar al fundador de Meta, Mark Zuckerberg, después de que este suspendiera indefinidamente las cuentas de Trump en Facebook e Instagram tras el asalto al Capitolio.

Todo cambió cuando se propuso suceder a Joe Biden. Ganó las elecciones de la mano de Elon Musk, que fue su principal mecenas y estratega. Con las elecciones ya ganadas, y antes de asumir la presidencia, fueron desfilando por su residencia de Mar-a-Lago los máximos responsables de las big tech. Incluido Zuckerberg, con quien más desencuentros había tenido en los últimos años.

La contratación de funcionarios del Pentágono por parte de las tecnológicas no es una novedad. Meta, por ejemplo, contrató a exmilitares, según desveló Forbes hace una año, “para que le ayuden a vender sus servicios de realidad virtual e IA al Gobierno federal”. “Desde el final de la guerra de Vietnam, las empresas estadounidenses contratan militares recién retirados para aprovechar su experiencia. Ahora da la sensación de que va a hacerse lo contrario”, explica Fernando Puell de la Villa, historiador, coronel del Ejército retirado y autor de Historia de la guerra: seiscientos años de enfrentamientos en Occidente (siglos XV-XXI) (Espasa).

Inteligencia Artificial
El director de tecnología de Meta, Andrew Bosworth, lejos de los uniformes durante un reciente evento de la compañía.David Paul Morris ( BLOOMBERG )

Washington quiere que el Destacamento 201 contribuya a integrar la IA, el análisis automático de datos y el reclutamiento tecnológico dentro de la planificación estratégica del Ejército, un esfuerzo que se anunció por primera vez en 2018 y que Trump está impulsando en su segundo mandato. Aunque la idea del Destacamento 201 no es suya: surgió en abril de 2023, con Joe Biden en la Casa Blanca y meses después de que la irrupción de ChatGPT (noviembre de 2022) presentara al mundo la IA generativa. El entonces director de gestión del talento del Pentágono, BryntParmeter, decidió formar un destacamento especializado en esa tecnología, que empezaría con un puñado de oficiales y que con los años reclutaría a miles de personas.

Poco se sabe sobre lo que ha hecho hasta ahora el Destacamento 201. El Pentágono no ha dado por el momento datos al respecto. Sí es público que el procedimiento de incorporación exprés de militares reservistas que inauguró, que ha reducido de 18 a seis los meses que se tarda en incorporar a un candidato a la estructura militar, se está aprovechando. “Hemos aprendido mucho con el proceso de reclutamiento del Destacamento 201”, dijo el general de brigada Gregory Johnson a un grupo de periodistas en declaraciones recogidas por Federal News Networks. “Tenemos mucha actividad en lo que respecta al software, la IA, la robótica y las redes. Creemos que muchos especialistas pueden ayudarnos a través de este programa de nombramiento directo”.

Manuel G. Pascual

Los proyectos de cobre que se benefician con la reforma de la Ley de Glaciares

0

El presidente de la Cámara Argentina de Empresas Mineras (CAEM), Roberto Cacciola, aseguró que “los proyectos de cobre de clase mundial que están listos para comenzar la etapa de construcción y pueden ser afectados positivamente por los cambios en la Ley de Glaciares están en San Juan, Catamarca y Salta. Hay también un proyecto mediano de cobre en Mendoza”.

Cacciola identificó a cada uno de esos desarrollos: “En la provincia de San Juan están los proyectos Pachón, Los Azules, José María y Filo del Sol”. Los dos últimos están integrados en el distrito Vicuña, donde las compañías BHP y Lundin planean realizar una inversión de US$ 7.100 millones.

Por su parte, la minera canadiense McEwen Copper, a cargo del proyecto de cobre Los Azules, estima una inversión de US$ 3.170 millones, mientras que Glencore calcula invertir US$ 9.500 millones en el yacimiento El Pachón.

En San Juan también está el proyecto de cobre Altar, de la compañía Aldebaran, pero Cacciola aclaró que, a diferencia del resto, es el que está menos avanzado ya que se encuentra en etapa de prefactibilidad.

El titular de CAEM también afirmó que “en Catamarca está el proyecto Minera Agua Rica”. Se trata del proyecto MARA (Minera Agua Rica – Alumbrera), uno de los mayores desarrollos de cobre de la Argentina. En esta iniciativa, el gigante suizo Glencore podría realizar una inversión de US$ 4.000 millones.

Sobre los proyectos que podrían concretarse a partir de la modificación a la Ley de Glaciares, Cacciola también mencionó que “en Salta está el proyecto de cobre Taca Taca”, que está a cargo de la minera canadiense First Quantum Minerals, que prevé una inversión de hasta US$ 5.250 millones.

Además, el titular de CAEM añadió que “hay un séptimo desarrollo en Mendoza que es de menor envergadura que es Proyecto San Jorge (PSJ)”. Allí, la minera suiza Zonda Metals GmBH y el Grupo Alberdi tienen un compromiso de inversión de US$ 559 millones.

Cacciola subrayó que “seis proyectos de clase mundial pueden tener un impulso importante a partir de clarificar la situación con la modificación de la Ley de Glaciares. Con lo cual, entendemos que se van a acelerar los tiempos para que empiecen la etapa concreta de construcción”. Y agregó que “en forma inmediata estos proyectos van a empezar a analizar el tema de los recursos humanos y en cuanto se despejen los temas judiciales, que ya se presentaron, irán avanzando en las etapas posteriores”.

Según información de la Secretaría de Minería, el país cuenta con nueve proyectos de cobre avanzados en las regiones Cuyo y Noroeste por un CAPEX (gastos de capital) superior a los US$ 28.000 millones. La Argentina dejó de producir cobre a gran escala en 2018, cuando cerró la mina Bajo la Alumbrera en Catamarca.

Modificación a la Ley de Glaciares

EconoJournal también dialogó con Roberto Cacciola (CAEM) sobre distintos aspectos de la reforma a la Ley de Glaciares aprobada en el Congreso.

Roberto Cacciola, presidente de la Cámara Argentina de Empresas Mineras (CAEM).

–¿Qué implica para el sector la modificación a la Ley de Glaciares?

–Se le da certeza sobre todo al tema del ambiente periglaciar, que de alguna manera en la ley estaba muy confuso porque parecía que tenía prevalencia sobre los glaciares. Hay un inventario que tiene total vigencia. La nueva norma permite que las provincias tengan mayor autonomía, que puedan elaborar y resolver las presentaciones de las empresas mineras sobre los estudios de impacto ambiental para ser aprobados y poder ir adelante con los proyectos.

– Uno de los ejes centrales del debate sobre la Ley de Glaciares fue el IANIGLA (Instituto Argentino de Nivología, Glaciología y Ciencias Ambientales), que es el ente que realiza el inventario sobre zonas periglaciares. ¿Qué visión tiene al respecto?

–En función de la cantidad de áreas que puedan estar dentro del inventario de glaciares seguramente habrá conversaciones lógicas entre las provincias y el IANIGLA. Y se completará lo que el IANIGLA no pudo hacer, pero no porque no quisiera, sino porque no tuvo recursos. Acá es importante destacar que el inventario del IANIGLA está basado en imágenes satelitales. En la actualidad, si hay alguna discrepancia respecto de lugares en que se quiere desarrollar hay que ir al terreno y validar cada zona que puede estar en discusión, cumpla o no una función hídrica estratégica. Si la cumple, no se podrá hacer ninguna actividad y si no cumple actividad hídrica se podrá seguir adelante y poder compatibilizar el cuidado ambiental con el desarrollo productivo. Para las empresas mineras, esto es una certeza, es decir, se va a saber si se va a poder hacer o no una actividad productiva en determinadas zonas.  Por otro lado, las provincias necesitaban esta autonomía y tienen los recursos y el personal idóneo para evaluar los proyectos.

Hubo dos aspectos del proyecto de modificación de la ley que fueron criticados que fueron el uso del agua y el federalismo. ¿Qué opinión tiene sobre estos puntos?

–El proceso dejó algunas definiciones claras, sobre todo para la gente que tiene temores para que pueda evaluar y contar con mayores precisiones. La primera definición que tenemos que poner arriba de la mesa es que el objeto de la ley no se modificó, sigue siendo proteger los glaciares y el ambiente periglaciar en la medida que constituyan recursos hídricos estratégicos. Esto significa que no hay ningún tipo de cambio en el objeto de la normativa. Algunos quisieron instalar que se afectará el agua dulce para su utilización y eso no es cierto. Esto tiene que quedar totalmente claro, porque no se va a afectar ningún recurso hídrico que tenga vinculación con el cauce de ríos ni arroyos ni se va a impedir el fluido normal del agua como corresponde. La población puede tener un genuino temor sobre qué puede pasar con los cambios en la ley. El agua fue una herramienta para generar temor y la respuesta fue clara y evidente. Por otro lado, si en alguna zona donde se pretende llevar adelante un proyecto minero realmente hay una función hídrica como establece la ley, ahí entonces no se podrá realizar minería.

-¿Y qué opinión tiene sobre las críticas falta de federalismo?

–Está claro que las provincias tienen potestad sobre los recursos minerales. La ley no hace otra cosa que otorgarles la autonomía que les corresponde por la Constitución Nacional. Se buscó bajarle el precio a la calidad de análisis que pueden tener los organismos provinciales para poder evaluar correctamente los estudios de impacto ambiental. Pero esto no es así, hoy las provincias cuentan con equipos técnicos suficientemente profesionalizados, tienen los elementos y, sobre todo, tienen la posibilidad de acceder a través del terreno para evaluar in situ si hay cuestiones que pueden afectar a los recursos hídricos. Nosotros celebramos que las provincias puedan ejercer mayor autonomía.

Roberto Bellato

Echaron a 140 personas del SMN. Un «paro de pronósticos» detendría vuelos en todo el país

0

Comenzó una jornada de despidos en el Servicio Meteorológico Nacional (SMN). Varios directivos y trabajadores del SMN revelaron que 140 personas serán oficialmente desvinculadas del organismo científico mañana.

Ante esta medida, ATE-SMN anunció que hará un paro activo en el que se detendrán todos los servicios no esenciales del organismo. En consecuencia, afirman fuentes gremiales, el viernes 24 de abril, entre las cinco de la mañana y el mediodía, no despegarían ni aterrizarían aviones en los aeropuertos argentinos, a excepción de los vuelos sanitarios y humanitarios. El organismo, señalan fuentes internas, provee la información necesaria para los pronósticos aeronáuticos que habilitan el vuelo de los aviones.

Según informaron varias fuentes dentro de la institución, se trataría de la primera de dos tandas de despidos que podría alcanzar a 240 trabajadores sobre una planta total de 972, de los cuales 780 son civiles. Tras este recorte, la dotación de personal civil quedaría reducida a 540 empleados.

Desde hace poco más de un mes, ese número circulaba como un rumor por los pasillos del organismo y anticipaba una baja del 30% de la planta total. Entre el Ministerio de Defensa y el Ministerio de Desregulación y Transformación del Estado se analizaba un “plan de modernización” del Servicio Meteorológico Nacional que, hasta el momento, se tradujo en un recorte de personal.

“Se elaboró una lista de 140 personas que van a ser desvinculadas del organismo. El Ministerio de Defensa está cumpliendo un pedido del Ministerio de Desregulación”, señalaron fuentes vinculadas con el proceso de achicamiento del SMN. Cada director tuvo que elegir un número de personas proporcional al total de cada departamento para determinar los despidos.

Personas cercanas al actual director del SMN, José Mauad, dijeron que él “intentó todo lo que pudo, y que la posición de Desregulación era inamovible. Que no pudo hacer más. Y que si no lo hacían ellos, lo haría otro”. Fuentes oficiales afirmaron que “las desvinculaciones fueron determinadas por Defensa y, a su vez, definidas por cada sector dentro del SMN”, explicaron.

Según pudo saber este diario, los despidos no alcanzarían a la planta permanente. Se trata de trabajadores contratados bajo la modalidad de contratos temporarios encuadrados en el artículo 9, una práctica extendida en el Estado nacional y que, en este caso, abarcaba a más de la mitad de la dotación del organismo.

“Desde el Ministerio de Defensa llamaron por teléfono para notificar a los directores nacionales y a los jefes de cada área. Nos dijeron que se nos va a pagar el mes y las vacaciones. No tenemos indemnización por la figura administrativa bajo la que estamos contratados”, explicó una meteoróloga despedida.

Además de esos despidos, fuentes de la institución informaron que hay 31 personas consideradas “jubilables”. “Desde el Ministerio de Desregulación dijeron que hay que ‘esperar a que cumplan años’ para desvincularnos. Yo cumplo a fin de año y estoy en esa lista. Llevo 13 años trabajando acá”, relató una trabajadora del SMN que pidió reserva de su identidad.

Este no es el primer recorte en el organismo. Desde el inicio de la actual gestión, el SMN ya perdió más de 200 empleados. Luego de la primera ola de despidos en el Estado nacional y, de acuerdo con cifras oficiales, la cantidad de trabajadores había quedado por debajo de la dotación considerada óptima. Según informó la cartera a comienzos de la gestión, con base en una auditoría realizada durante el gobierno de Mauricio Macri, el plantel ideal del Servicio Meteorológico Nacional es de 1156 trabajadores.

Una degradación de los pronósticos

Varios de los despidos, según señalaron directores del SMN, afectarán a observadores meteorológicos. Advirtieron que habrá estaciones con menos personal del necesario para su funcionamiento habitual.

Los observadores son técnicos capacitados que se encargan de medir, en las 125 estaciones del país, los datos básicos sobre los que se construyen los pronósticos, la información meteorológica destinada a la pesca y la agricultura y los sistemas de alerta temprana vinculados a fenómenos climáticos extremos. En términos concretos, son quienes recopilan los datos que permiten anticipar cuándo se producirán lluvias, tormentas, nevadas, ventiscas o períodos de calor extremo, información clave tanto para la población como para sectores económicos especialmente vulnerables a las condiciones climáticas.

Si bien en otros países gran parte de este proceso está automatizado, en la Argentina continúa siendo mayormente analógico y requiere equipos de más de cinco personas que, hora tras hora, realizan la medición y carga de datos. La reducción de personal en estas estaciones, según coincidieron fuentes administrativas, científicas y funcionarios del SMN, podría derivar en un “desmantelamiento” del sistema meteorológico argentino. “Hay estaciones automáticas, que no llegan a 20. Tendrías 120 estaciones que faltan”, explicó un científico dentro del SMN.

Meteorólogos consultados señalaron que, por el momento, el organismo aún cumple con los estándares de calidad en la elaboración de pronósticos, aunque advirtieron que esa situación podría cambiar a corto plazo si no se aplica la tecnología para continuar con la medición.

Fuentes oficiales advirtieron que las máquinas automáticas “son accesibles” y que podrían comprarlas rápidamente. Sin embargo, un experto dentro del SMN explicó que la calidad varía mucho dependiendo del precio y que, cuanto más baratas son, el ritmo medio de fallas es más grande.

“Para poder pronosticar necesitamos tener la mejor imagen posible, y esa imagen se construye a partir de datos de calidad. Menos datos implican pronósticos menos precisos”, explicó una meteoróloga que fue desvinculada hoy. En sus palabras, los pronósticos funcionan como una pantalla: cuantos más datos hay, mayor es la resolución. De lo contrario, advirtió, el SMN avanza hacia un escenario cada vez más pixelado.

Matías Avramow

94 directivos de la CNEA advierten de la parálisis de proyectos, los bajos salarios y la falta de diálogo

0

A un año y dos meses del súper celebrado “Plan Nuclear Argentino” que, en palabras del presidente Javier Milei, iba a atraer inversiones descomunales en el sector de parte de inversores privados, los directivos de la Comisión Nacional de Energía Atómica (CNEA) le enviaron una carta al titular del organismo, Martín Porro, y al Secretario de Asuntos Nucleares, Federico Ramos Nápoli, en la que denuncian que “es inviable el desarrollo de proyectos” por el deterioro salarial, la falta de comunicación y diálogo desde la gestión y la parálisis de proyectos estratégicos.

Con una carta a las autoridades libertarias del sector, unos 94 jefes de área señalaron que en los últimos meses “hemos recibido, de manera creciente y sostenida, el malestar del conjunto del personal de CNEA”.

Ese malestar ha encontrado expresión formal en una nota suscripta a la fecha por 94 jefas y jefes de sectores de distintos niveles jerárquicos, Gerencias de Área y regionales de la institución, “cuya adhesión generalizada refleja una situación que ya no admite demoras“, señalan.

Salarios deteriorados en la CNEA

Entre las demandas están el derrumbe salarial, la caída de proyectos como el reactor nuclear RA-10 y CAREM y la ausencia de diálogo con la gestión libertaria.

Los reclamos por presupuesto y por salarios ya son una constante en el organismo de ciencia y tecnología, pero hasta ahora no había existido un posicionamiento claro de los directivos de las gerencias y subgerencias.

Al igual que sucedió la semana pasada con los titulares de las Agencias de Extensión del Instituto Nacional de Tecnología Agropecuaria (INTA) y meses atrás con las autoridades de institutos del CONICET, ahora es el turno de otro organismo científico.

Los referentes del sector nuclear, tal como lo hicieron en los organismos mencionados, manifestaron “profunda preocupación” por la situación actual de la Institución.

Federico Ramos Nápoli, Secretario de Asuntos Nucleares de Milei.

A un año del celebrado “Plan Nuclear Argentino” de Milei, no hay inversiones pero si despidos

Lo más sorprendente es que el documento se da a algo más de un año del mega súper anuncio libertario del “Plan Nuclear Argentino”, anunciado con bombos y platillos por el propio Milei y su asesor, Demián Reidel, y que tendría fondos estratosféricos para el sector (desde el sector privado).

Bueno, a 14 meses del mega mega mega anuncio, no hay ni fondos públicos ni privados pero si reclamos salariales, áreas desfinanciadas, proyectos de investigación paralizados, proyectos tecnológicos estratégicos cómo el reactor CAREM y el RA10 sin fondos, y hasta una cúpula desplazada por casos de corrupción como es el caso del propio Reidel.

Sin diálogo con las áreas de la CNEA

En la carta, señalan que “las autoridades de CNEA han roto, por primera vez, la tradición institucional de presentarse en cada uno de los Centros Atómicos al inicio de su gestión para exponer, públicamente, sus planes de trabajo, expectativas y propuestas de solución a los graves problemas que aquejan a la Casa”.

El documento señala que “resulta preocupante e inexplicable la falta de diálogo y comunicación con las líneas jerárquicas y cuadros técnicos, que impide su participación y opinión en la toma de decisiones que afectan áreas de su incumbencia. Asimismo, han desoído sistemáticamente las solicitudes de reunión entre los representantes gremiales y las máximas autoridades de la Casa”.

Deterioro Salarial

El personal de planta de la Comisión Nacional de Energía Atómica ha disminuido, en algo más de dos años, en 300 agentes, y los referentes del sector denuncian que “no se ha producido ninguna acción destinada a detener una sangría lenta pero claramente direccionada”.

Para los directivos la situación es “insostenible” debido, además, al deterioro salarial. “Los salarios han alcanzado niveles incompatibles con el sostenimiento de las funciones que la Institución debe cumplir”, señalan y que “constatamos cotidianamente la imposibilidad de sostener el funcionamiento de los grupos de trabajo bajo estas condiciones, lo que torna inviable el desarrollo de cualquier proyecto o Plan Nuclear: una realidad que no puede ser desconocida por las máximas autoridades del Organismo”.

Reclamo por salarios y presupuesto

Entre las situaciones que más preocupan está la decisión de renovar trimestralmente los contratos de los cientos de agentes que se desempeñan bajo esa modalidad.

Por eso, en el documento piden “encaminar gestiones urgentes tendientes a recomponer el salario de los agentes de CNEA, y garantizar la disponibilidad de recursos para el funcionamiento y continuidad de los proyectos; recomponer los canales de comunicación institucionales para elaborar, establecer y transmitir, en conjunto con los cuadros técnicos y profesionales, los objetivos estratégicos del Organismo de mediano y largo plazo; y garantizar la estabilidad laboral y velar por el bienestar y las condiciones de trabajo indispensables para planificación y el desarrollo de actividades científico-tecnológicas y de producción.

Dos universidades de Brasil y Argentina se proponen producir chips

0

En algún momento de nuestra historia contemporánea, una nueva matriz productiva desplazará necesariamente del escenario global a la pulsión de incertidumbre y de desesperanza que inoculan los ingenieros del caos a nuestra atribulada humanidad.

Bienestar económico. Trabajos bien remunerados de alta calificación. Calidad de vida. Los pueblos que pretendan integrarse beneficiosamente a la ventana de bienestar que abren los nuevos paradigmas de producción y distribución de bienes y servicios están obligados a comprender los valores estratégicos que se ponen en juego para poder obrar en consecuencia.

Por ejemplo, deberán conocer la importancia decisiva de ese ladrillito de arena procesada llamado semiconductores y popularmente conocidos como “chips”: unos minúsculos gigantes del tamaño de un grano de arroz, que contienen miles de millones de elementos biestables (transistores) conectados entre sí, aprovechando la semiconductibilidad del silicio refinado de la arena, propiedad clave para la conducción eléctrica de las señales que transforman al diminuto chip en el elemento primordial de la transformación.

Pensar cualquier modelo de desarrollo productivo que no asegure una provisión segura y conveniente de estos ladrillitos de arena es construir un gigante de pies de barro. Los chips son el alma de los servidores que hacen funcionar a Internet; también de las computadoras y les teléfonos “inteligentes” que usamos cotidianamente. Las actividades industriales no podrían seguir funcionando hoy sin la utilización de este recurso. Ni hablar de los nuevos artificios bélicos que muestran la cara más terrible de los avances tecnológicos en las guerras que hoy asolan nuestro planeta. Ni de los desarrollos de inteligencia artificial que mueven recursos económicos y energéticos de tal magnitud, que asusta pensar las intenciones de aquellos que los promocionan e impulsan.

Parecería que la posibilidad de alcanzar un desarrollo productivo que provea de bienestar económico, genere trabajos bien remunerados de alta calificación y posibilite una razonable calidad de vida a los habitantes de este querido continente suramericano, depende en buena medida de implementar una política regional que contribuya a la producción segura y el uso conveniente de semiconductores.

En la medida que los intereses del conjunto prevalezcan sobre las ventajas coyunturales, la alianza entre Argentina y Brasil en el tema de semiconductores puede aprovechar integralmente las ventajas comparativas que cada país puede aportar al proyecto común.

Brasil viene realizando un enorme esfuerzo para el desarrollo y producción de chips de tecnología conveniente para las necesidades de la región.

Argentina posee condiciones ventajosas para diseñar y producir programación específica para esos chips, y en conjunto producir semiconductores que brinden soluciones a la medida de las más diversas necesidades y demandas de la región, evitando el adocenamiento que conllevan las soluciones generales, considerando las características diferenciadas de cada usuario y respetando la cultura de gestión de cada entorno.

En este contexto, el acuerdo de cooperación e intercambio tecnológico alcanzado entre la Universidad Nacional de Avellaneda y la Ponticia Universidade Catolica do Rio Grande do Sul para considerar el desarrollo y la producción de semiconductores se constituye un hecho alentador, que justifica el entusiasmo que expresan sus promotores.

El Ing. Jorge Calzoni, rector de la Universidad de Avellaneda ha manifestado al respecto que “la asombrosa capacidad de manejo de información y consecuente gestión que se genera a través de la utilización de la tecnología de semiconductores transforma su uso en un hecho cultural de enorme impacto en la vida de los pueblos.

Esa circunstancia no puede resultar ajena al rol que creo deben asumir las universidades como organizaciones comprometidas con la construcción de un camino posible y la esperanza de un futuro mejor.
Este es el espíritu que anima el acuerdo de nuestra universidad con la Ponticia Universidade Catolica do Rio Grande do Sul”.

Por su parte el ing. Adao Villaverde, impulsor del acuerdo en Brasil opina que “Brasil y Argentina desempeñan un papel fundamental en Latinoamérica. Además de su peso económico, social y cultural, cuentan con importantes centros de investigación en el campo de los semiconductores, así como con empresas que operan en toda la cadena de valor, desde el diseño y la fabricación hasta el encapsulado y, por supuesto, la comercialización”. Y concluye afirmando que “el acuerdo UNDAV – TECNOPUC/PUCRS es estratégico para la región”.

Tanto en Argentina como en Brasil se han organizado encuentros vinculados con este acuerdo. En Argentina durante el mes de abril y organizado por el Instituto de Políticas Públicas de la Universidad Nacional de Avellaneda y la Asociación Civil Infoworkers, se realiza el 2º Encuentro de Tecnologías Convenientes para la soberanía latinoamericana, orientado específicamente a tratar el tema de “Semiconductores de y para nuestro Continente”.

En el mismo se trabajará en la construcción de una estrategia común entre ambos países para el desarrollo y la utilización conveniente de los semiconductores en el continente, un tema que interesa significativamente a la hoy castigada industria electrónica argentina instalada en nuestra estratégica Tierra del Fuego.

Paralelamente, cada uno de los ecosistemas industriales del área de la electrónica y los semiconductores juegan un papel importante en la preparación y realización de SemiCon-LAC 2026, el Simposio Latinoamericano y Caribeño de Semiconductores que tendrá lugar en junio de 2026 en Porto Alegre, RS, Brasil.

Adao Villaverde afirma que “Aabos países, a través del apoyo de instituciones de investigación, agencias de financiamiento, la industria y los gobiernos, desempeñarán un papel fundamental en este evento para posicionar a los países de Latinoamérica como actores relevantes en el nuevo contexto global de producción y suministro en este ámbito”.

Más allá de escenarios políticos coyunturales y circunstancias globales contradictorias, la alianza de Argentina y Brasil debe constituir una política permanente que favorezca el fortalecimiento de nuestra región y posibilite la creación de empleos de calidad que constituyan la alternativa superadora del modelo extractivista que se quiere imponer, generador de cada vez más empleos para cada vez menos trabajadores, en condiciones laborales cada vez más regresivas y de menor valor humano agregado.

Un modelo para el que la inteligencia, la educación y el conocimiento constituyen un mal negocio.

Jorge Zaccagnini

Mañana, jueves 16 de abril, se lanzará este proyecto, en un evento organizado por Infoworkers y la Universidad Nacional de Avellaneda. Para participar en forma virtual es necesario inscribirse aquí.

Misiles y «tierras raras», la materia prima de la guerra moderna

0

Incluso antes de que comenzara la guerra entre EE.UU. e Israel contra Irán, las reservas de tierras raras ya eran escasas, y China, el mayor exportador, restringió las exportaciones de tierras raras clave para uso militar

Neodimio: el 90 % procede de China

Galio: el 95 % del suministro procede de China

Grafito: el 80 % del suministro proviene de China

Tungsteno: el 80 % del suministro proviene de China

Se podría decir que sin China no hay guerra. Esto coloca a EE. UU. en una situación bastante incómoda, en la que su ejército depende del mismo enemigo al que planea derrotar.

Para dar un ejempl concreto, se menciona el caso del misil Tomahawk (BGM-109 TLAM) es el arma de ataque terrestre de largo alcance por excelencia en el arsenal de Estados Unidos.
Papel principal:Ataque de precisión en profundidad contra objetivos terrestres de alto valor (instalaciones militares, bunkers, centros de mando, aeródromos, defensas antiaéreas, etc.).
Permite golpear desde más de 1.600 km de distancia sin exponer tripulaciones ni aviones tripulados.

Uranio: una empresa estadounidense quiere invertir en finalizar la planta de Dioxitek

0

El gobierno nacional recibió una propuesta de la empresa estadounidense Nano Energy para realizar una inversión de más de US$ 230 millones en la finalización y puesta en operación de la Nueva Planta de Uranio de Dioxitek en Formosa.

De aprobarse el proyecto, Nano Energy buscaría calificar el mismo al Régimen de Incentivos a las Grandes Inversiones (RIGI).

El proyecto implicaría un salto cualitativo en las capacidades del ciclo del combustible nuclear, ya que contempla en una segunda etapa producir y exportar hexafloruro de uranio a escala industrial, una novedad para el país.

De hecho, Dioxitek y Nano Energy comenzaron a explorar las posibilidades de esta inversión en agosto del año pasado, tras firmar un memorando de entendimiento que permitió evaluar las capacidades tanto de la empresa argentina como del sector nuclear nacional. El país cuenta con know-how en la conversión de dióxido de uranio a hexafloruro de uranio.

Producto de esos contactos iniciales, un acuerdo terminó de sellarse en la Argentina Week, donde representantes del sector atómico del país participaron de un evento organizado por la Secretaría de Asuntos Nucleares y el Consulado Argentino en Nueva York.

Cuál es el proyecto en la planta de uranio de Dioxitek en Formosa

La empresa de capitales estadounidenses presentó ante el Ministerio de Economía una iniciativa para invertir más de 230 millones de dólares en la finalización de la Nueva Planta de Uranio (NPU) de Dioxitek en Formosa.

La empresa estatal que produce dióxido de uranio seguiría siendo la dueña de la planta y del terreno, transfiriendo su uso a una nueva sociedad con Nano Energy, con el pago de un usufructo por la utilización del activo, según pudo saber este medio.

El proyecto contempla dos hitos principales. El primero consiste en la finalización de la construcción, puesta en marcha y operación de la instalación NPU-1 destinada a la producción de UO₂ (dióxido de uranio).

Esta etapa incluye la adecuación de instalaciones, la incorporación de equipamiento faltante, así como la implementación de todos los sistemas técnicos, operativos y de seguridad necesarios para alcanzar condiciones de operación industrial segura y eficiente conforme a los estándares regulatorios nacionales e internacionales aplicables a la actividad nuclear.

El segundo hito prevé la construcción, puesta en marcha, operación y mantenimiento de una instalación complementaria, para la conversión de UO₂ en UF₆ (hexafloruro de uranio).

El hexafluoruro de uranio es el compuesto que se utiliza como materia prima en el proceso de enriquecimiento de uranio. Las centrales nucleares argentinas utilizan uranio natural como combustible y agua pesada como moderador de la reacción en cadena y refrigerante, por lo que una eventual producción de hexafluoruro sería para abastecer la demanda internacional de combustible con uranio enriquecido.

Precisamente, el proyecto con Nano Energy garantizará la provisión del dióxido de uranio necesario para abastecer las centrales Atucha I-II y Embalse, que demandan unas 230 toneladas anuales, así como también podrá ingresar al mercado mundial hexafluoruro de uranio, cuya demanda es constante y va en aumento.

Dioxitek, una empresa estatal que volvió a ser rentable

La iniciativa con Nano Energy refleja el modelo de inversión privada en proyectos rentables en el sector nuclear que promueve el gobierno. Justamente, el secretario de Asuntos Nucleares, Federico Ramos Napoli, viene de ser gerente y presidente de Dioxitek, en donde lideró el proceso de saneamiento económico de la compañía.

«El objetivo primordial de la Secretaría es reordenar el sector y buscar que las distintas unidades de negocio que pueden surgir a partir del sector tengan una viabilidad económica y comercial, que hasta ahora se mostró en general deficiente», explicó Ramos Napoli en una entrevista a este medio.

La construcción de la NPU en Formosa comenzó en 2014 y estuvo sujeta a multiples retrasos. El secretario de Asuntos Nucleares consideró que el proyecto desde su origen no tenía una viabilidad comercial por su capacidad de producción de dióxido de uranio, superior a la demanda local.

«Un ejemplo puede ser la planta de Formosa, que es la situación sobreanalizada que tuvimos en Dioxitek. Es una planta cuyo plan inicial eran dos líneas de producción de unas 250 toneladas de dióxido de uranio de capacidad nominal por línea, es decir 500 toneladas anuales. Había un problema de la falta de modelo de negocio, porque la demanda agregada de las centrales nucleares argentinas que utilizan dióxido de uranio natural oscila en torno a las 210 toneladas. Tenés 290, 280 toneladas huérfanas», explicó.

Precisamente, el acuerdo con Nano Energy busca redefinir los alcances del proyecto, en una sociedad que habilitará un negocio de exportación.

Las apuestas con criptomonedas combinan la transparencia de la cadena de bloques con cuotas en tiempo real, ofreciendo liquidaciones más rápidas y un juego demostrablemente justo. Al aprovechar redes descentralizadas, los usuarios obtienen mayor seguridad, comisiones más bajas y resultados verificables. Ya sea que te interesen las quinielas deportivas, las apuestas tipo casino o los mercados de predicción, las apuestas con cripto permiten una participación disciplinada para tomar decisiones informadas y estratégicas. Aprende más en polltrading.com.

Nicolás Deza

Columna: Agosto llegará antes de lo que parece

La Unión Europea fijó el 2 de agosto de 2026 como fecha límite para que las empresas que operan con sistemas de inteligencia artificial de alto riesgo cumplan los requisitos de la AI Act. Faltan menos de cuatro meses. Y la pregunta que casi nadie se está haciendo en Argentina es si eso nos afecta o no.

La respuesta corta: más de lo que parece. Si una empresa argentina le vende servicios a alguien en Europa, o usa software que procesa datos de personas ubicadas allá, entra en el alcance de la norma. No automáticamente como infractora, pero sí como eslabón de una cadena que ahora tiene obligaciones formales. La AI Act tiene alcance extraterritorial: lo que importa no es dónde está la empresa que usa la herramienta, sino dónde está la persona a la que esa herramienta afecta.

Los sistemas de alto riesgo, según la regulación, incluyen IA aplicada a contratación de personal, evaluación crediticia, salud, infraestructura crítica y logística. Todos sectores donde la automatización creció más rápido en los últimos dos años. La ley no prohíbe usar esas herramientas; exige transparencia, documentación técnica y supervisión humana verificable. Para una empresa que adoptó un sistema de scoring crediticio, un asistente de selección de personal o un software de gestión logística sin preguntarse demasiado de dónde viene el modelo ni cómo toma sus decisiones, la noticia es que ya debería estar revisando esa cadena.

La especialización como próxima fase

Mientras la regulación avanza en Europa, el mercado de modelos de IA muestra una tendencia que se empieza a consolidar: la especialización.

La semana pasada cubrimos en este portal el caso de Claude Mythos, el modelo de Anthropic que identificó miles de vulnerabilidades zero-day en sistemas operativos y navegadores, incluyendo un bug de 27 años en OpenBSD. Un dato que vale la pena precisar: Mythos no fue entrenado específicamente para ciberseguridad. Es un modelo de propósito general cuyas capacidades de razonamiento y codificación agéntica resultaron ser devastadoramente efectivas en ese dominio. Anthropic decidió no lanzarlo al público y restringir su uso a un consorcio defensivo de empresas como Apple, Google, Microsoft y CrowdStrike.

Eso plantea una distinción importante. La especialización que viene no necesariamente va a surgir de entrenar modelos desde cero para un solo sector. Va a surgir de algo más accesible y más estratégico: alimentar modelos potentes con datos específicos de un dominio que los generalistas simplemente no tienen.

Y ahí es donde la conversación se vuelve concreta para Argentina. Los modelos generalistas — por más poderosos que sean — manejan con dificultad contextos muy locales: precios del Matba-Rofex, normativa del SENASA, ciclos de cultivo de la Pampa Húmeda, regímenes cambiarios que cambian cada trimestre. El desarrollo de modelos alimentados con datos sectoriales argentinos no es un proyecto de ciencia ficción. Ya hay equipos trabajando en eso. El punto es que quien lo haga primero y los ponga en manos de productores, estudios jurídicos o contadores va a construir una ventaja difícil de replicar, porque esos datos de entrenamiento son únicos e históricamente situados. No se googlean.

La infraestructura primero

Microsoft anunció a principios de abril una inversión de 10.000 millones de dólares en Japón, desplegada entre 2026 y 2029. Es la mayor apuesta de la compañía en ese mercado. Incluye construcción de centros de datos, alianzas con SoftBank y Sakura Internet para capacidad de cómputo con GPUs, y un programa para entrenar un millón de ingenieros para 2030. No va a Japón a vender consultoría: va a construir la infraestructura donde los modelos sectoriales — los que van a mover industrias específicas — se van a entrenar y alojar. Infraestructura primero, servicios después.

Japón tiene energía estable, tiene territorio, tiene un gobierno dispuesto a firmar acuerdos de largo plazo. Argentina también tiene energía y territorio. La semana pasada este portal abordó el debate sobre la posición del país en la geografía de los data centers latinoamericanos. Ese debate sigue abierto. Lo que se agrega esta semana es una capa de urgencia: si la especialización sectorial es la próxima fase de adopción de IA — y la evidencia apunta en esa dirección — entonces el momento de construir esa infraestructura y esos modelos es ahora, no cuando el mercado ya esté consolidado y las posiciones tomadas.

Lo que viene

El 2 de agosto llegará antes de lo que parece. Y con él, la primera prueba concreta de si las empresas que adoptaron IA en los últimos años lo hicieron con criterio o simplemente siguieron la corriente.

Pero agosto no es solo una fecha regulatoria. Es un punto de inflexión donde se van a cruzar tres tendencias que hoy corren por separado: la regulación europea que exige trazabilidad, la especialización de modelos que premia el conocimiento sectorial profundo, y la carrera por la infraestructura de cómputo que va a definir qué países procesan sus propios datos y cuáles dependen de los centros de datos de otros.

Argentina tiene con qué jugar en al menos dos de esas tres dimensiones. La pregunta es si alguien va a tomar la decisión de hacerlo antes de que la ventana se cierre.

Columna de IA por Esteban Terranova

TANDANOR continúa la reconstrucción de la Base Antártica Conjunta Petrel

0

En el marco de la Campaña Antártica de Verano 2025/2026, Argentina continuó avanzando en la reactivación de la Base Antártica Conjunta Petrel, con nuevos progresos en la construcción de su infraestructura, destacándose la finalización de la estructura del Módulo I y avances significativos en el Módulo II, en un proyecto impulsado por el Ministerio de Defensa.

Según lo informado, el Módulo I alcanzó la finalización de su estructura durante la actual campaña, incorporando aproximadamente 400 metros cuadrados de superficie cubierta al conjunto edilicio proyectado para la base, ubicada en la isla Dundee. Este avance representa un paso clave dentro del proceso de recuperación de Petrel, considerada una instalación estratégica por su ubicación y potencial como punto logístico en la Antártida.

En paralelo, se registraron progresos en el Módulo II, cuya estructura había sido completada durante la Campaña Antártica anterior. Durante la presente etapa se avanzó en la instalación de la envolvente exterior, incluyendo el montaje de aproximadamente 750 metros cuadrados de panelería, en línea con el cronograma constructivo previsto.

La envolvente del módulo incorpora soluciones específicas para el entorno antártico, incluyendo sistemas de aislamiento térmico y refuerzos estructurales, diseñados para soportar condiciones climáticas extremas y mejorar la eficiencia energética de las instalaciones. Asimismo, durante esta fase, se concretó el montaje de la escalera de acceso que conecta los módulos I y II, integrando funcionalmente ambos sectores.

Los trabajos fueron desarrollados en base a una planificación técnica conjunta entre el astillero TANDANOR y el Ejército Argentino, con participación del Comando Conjunto Antártico (COCOANTAR). En este sentido, durante diciembre de 2025 se llevaron a cabo jornadas de trabajo con personal del Arma de Ingenieros, donde se definieron criterios de ejecución adaptados al entorno antártico y se capacitó a los equipos encargados del montaje.

En línea con esto, el componente logístico también resultó clave para el avance de la obra, incluyendo el traslado de materiales mediante el rompehielos ARA Almirante Irízar y el buque logístico ARA Puerto Argentino, que permitieron el transporte de paneles y estructuras hacia la isla Dundee en condiciones operativas complejas.

Maria Victoria Pierucci

Números del INDEC: la caída de la industria argentina se acentúa

0

La industria cayó 8,7% interanual en febrero y 4% versus enero. En el primer bimestre acumula una baja de 6% contra igual período de 2025

Luego de haber ilusionado con una suba de 3,1% en enero versus diciembre, la industria registró una fuerte caída en febrero, con una baja de 4% respecto del mes previo. El retroceso fue de mayor magnitud en la medición interanual y en el acumulado del año, con caídas de 8,7% y 6%, respectivamente.

El dato fue publicado por el Instituto Nacional de Estadística y Censos (Indec) en su Índice de Producción Industrial Manufacturero (IPIM). En ese informe se puede ver, además, que la mayoría de los sectores industriales relevados exhibieron caídas.

Según indicó el Indec, 14 de las dieciséis divisiones de la industria manufacturera presentaron caídas interanuales. Entre los de mayores incidencia en el nivel general, las principales bajas se dieron en “Alimentos y bebidas” (-6,9%); “Maquinaria y equipo” (-29,4%); “Vehículos automotores, carrocerías, remolques y autopartes” (-24,6%); “Otros equipos, aparatos e instrumentos” (-24,6%); “Prendas de vestir, cuero y calzado” (-18,2%), y “Productos de caucho y plástico” (-15,7%), entre otros.

En la comparación intermensual, también hubo retrocesos importantes. Entre ellos, se destacaron “Minerales no metálicos y metálicas básicas” (-11,8%); “Automotores y otros equipos de transporte” (-7,3); “Productos de metal, maquinaria y equipo” (-5%); “Textiles, prendas de vestir, cuero y calzado” (-4%), y “Alimentos, bebidas y tabaco” (-3,1%).

Este resultado se conoce en un contexto delicado para la industria, en el que la apertura económica dispuesta por el Gobierno, con el consecuente ingreso de un gran volumen de productos importados que compiten con los nacionales, golpea a gran parte de las empresas locales.

El economista Claudio Caprarulo, director de la consultora Analytica, comentó que febrero fue un mes de contracción de la economía. “En particular, la industria acumula una caída de 6% anual en el primer bimestre y tuvo su peor febrero desde 2009 para volver al nivel de junio de 2024. Un resultado que es poco optimista para proyectar los indicadores de empleo del primero trimestre de este año”, explicó.

Si bien enero y febrero suelen ser períodos particulares, debido a que hay vacaciones y paradas de planta, el crecimiento de 3,1% en el primer mes del año había generado cierta expectativa de una recuperación definitiva del sector. Se trató de un crecimiento incluso superior al que habían proyectado algunas consultoras privadas, como la Fundación de Investigaciones Económicas Latinoamericanas (FIEL) y OJF y Asociados, que habían consignado hace diez días alzas de 2,1% y 1,2%, respectivamente

Esas consultoras habían señalado entonces que esos datos podían constituir las primeras señales de una reversión del ciclo contractivo que había marcado los últimos meses. Sin embargo, el resultado de febrero, dio por tierra con esa idea y postergó la definición de una tendencia para cuando se conozca el indicador de marzo.

En este sentido, el economista Camilo Tiscornia, director de C&T Asesores Económicos, remarcó es difícil analizar los datos de la industria en los dos primeros meses del año, debido a la desestacionalización. “La caída de febrero parece anormal tras una fuerte subida en enero. Por eso, es mejor esperar a tener el primer trimestre completo para sacar conclusiones más claras”, sugirió.

El economista Lorenzo Sigaut Gravina, de la consultora Equilibra, señaló que “el resultado de febrero refleja un estancamiento de la industria, uno de los sectores más afectados desde el inicio del gobierno de Javier Milei”. Y agregó: “Enero y febrero son meses complejos, por vacaciones y paradas técnicas. Por eso, siempre hay que tomar el bimestre, y ahí se ve que está en los niveles del año pasado todavía. Habrá que esperar a marzo para ver si hay recuperación”.

En tanto, Federico González Rouco, economista de la consultora Empiria, dijo que febrero ya perfilaba como un mes malo de actividad en varios indicadores. “La industria no puede salir de su estancamiento, más allá de breves períodos en los que registra dos meses buenos y después se calma”, destacó.

Con el foco puesto en lo que sucede en los distintos sectores industriales, la economista Natacha Izquierdo, directora de Operaciones de la consultora Abeceb, señaló que el comportamiento sectorial es heterogéneo. “Mientras algunas ramas vinculadas a energía y química muestran crecimiento —como refinación de petróleo (+19,7%) y sustancias y productos químicos (+3,7%)—, la mayoría de los sectores manufactureros presentan contracciones», refirió.

Además, Izquierdo analizó que la serie tendencia-ciclo registró una variación positiva del 0,2%, “lo que sugiere una desaceleración en la caída, pero aún sin señales claras de recuperación”.

Resistencia al arsénico en el ADN de habitantes de la región andina

0

En cualquier otro contexto, consumir agua con una concentración de arsénico muy por encima de los niveles recomendados por la Organización Mundial de la Salud (OMS) representaría un grave riesgo para la salud. Pero en San Antonio de los Cobres, en el altiplano del noroeste argentino, a más de 3.700 metros de altitud, esa ha sido durante siglos –y probablemente milenios– una condición cotidiana de vida.

Antes de que se instalara un sistema de filtración en 2012, el agua de la localidad contenía alrededor de 200 microgramos de arsénico por litro. El límite recomendado por la OMS es de apenas 10. Y, aun así, se trata de una zona ocupada por seres humanos desde hace al menos 7.000 años, quizá incluso 11.000. La pregunta inevitable es: ¿cómo es posible?

El arsénico no es precisamente un veneno menor. La exposición crónica se asocia con cáncer, lesiones cutáneas, malformaciones congénitas y muerte prematura. Cuando entra en el organismo, las enzimas del cuerpo lo transforman a través de varias formas químicas. 

Pero no todas tienen el mismo efecto. El compuesto monometilado, o MMA, resulta particularmente tóxico, mientras que el dimetilado, conocido como DMA, se presta mejor a su eliminación urinaria. El problema es que, en la mayoría de las personas, el metabolismo del arsénico genera proporciones relativamente altas de ese compuesto intermedio más dañino antes de transformarlo en la forma que el organismo puede excretar con mayor facilidad.

Un gen clave en la resistencia al arsénico

A mediados de los noventa, un estudio identificó en esta población femenina un procesamiento inusual del arsénico: el organismo acumulaba menos del derivado más tóxico y avanzaba con mayor eficacia hacia la forma eliminable por la orina. En otras palabras, su metabolismo del arsénico era inusualmente eficiente.

Durante años, el fenómeno quedó como una curiosidad bioquímica. Pero en 2015, un equipo liderado por las biólogas evolutivas Carina Schlebusch y Lucie Gattepaille, de la Universidad de Uppsala, publicó en Molecular Biology and Evolution una posible explicación genética.

Para investigarlo, los científicos analizaron el ADN de 124 mujeres de San Antonio de los Cobres y compararon sus datos con los de poblaciones de Perú y Colombia. Lo que encontraron fue revelador.

Los científicos centraron una parte clave de la explicación en torno a AS3MT, un gen esencial en el metabolismo del arsénico. En su entorno detectaron variantes cuya presencia se relacionaba con un procesamiento biológico más eficiente del metaloide. Esas variantes aparecían con mucha mayor frecuencia en los habitantes de San Antonio de los Cobres que en poblaciones genéticamente similares de Perú y Colombia, regiones donde los niveles ambientales de arsénico son mucho menores, según el estudio.

El análisis reveló además señales claras de lo que los genetistas llaman un «barrido selectivo”, la huella que deja la selección natural cuando favorece rápidamente un rasgo en una población. En términos simples, este patrón sugiere que las variantes protectoras del gen AS3MT pudieron conferir una ventaja en entornos con altos niveles de arsénico. Con el paso de las generaciones, esa ventaja habría favorecido que dichas variantes se volvieran cada vez más frecuentes en la población.

«La adaptación para tolerar el arsénico como factor de estrés ambiental probablemente ha impulsado un aumento en la frecuencia de variantes protectoras de AS3MT», escribió el equipo en su estudio, que calificó el hallazgo como «la primera evidencia de adaptación humana a una sustancia química tóxica».

Adaptación al arsénico en otras poblaciones andinas

¿Se trata de un caso aislado? Los datos sugieren que no. Un estudio posterior publicado en Chemosphere en 2022 examinó poblaciones indígenas de los Andes bolivianos –grupos aimara-quechua y uru– y encontró señales igualmente fuertes de selección positiva cerca del mismo gen. De hecho, los bolivianos presentaban la mayor frecuencia registrada hasta la fecha de alelos asociados a un metabolismo eficiente del arsénico, y la señal de selección se situaba entre el 0,5 % más intenso de todo el genoma.

Todo ello apunta a que la adaptación al arsénico no es un fenómeno local ni puntual, sino un proceso evolutivo que podría haber ocurrido en paralelo en distintas comunidades andinas expuestas durante generaciones al mismo veneno natural. Cuando la presión ambiental persiste durante siglos, la evolución puede favorecer adaptaciones similares en poblaciones expuestas a presiones ambientales comparables.

Más allá del ADN: la epigenética entra en escena

La evolución humana, sin embargo, no siempre implica cambios directos en el ADN. Además de las mutaciones heredables, existen mecanismos epigenéticos que modifican la forma en que los genes se activan o se silencian en respuesta al entorno. Estas alteraciones no cambian la secuencia genética y pueden ser más flexibles, ya que no siempre se transmiten de forma estable entre generaciones.

Mientras los genetistas buscaban respuestas en el código del genoma, otros han mirado precisamente en esta dirección. Por ejemplo, más recientemente, investigadores de la Universidad de Emory se preguntaron si la adaptación andina a la altitud –un enigma en sí mismo, ya que los pueblos andinos no poseen el mismo «gen de la altitud» identificado en los tibetanos– podría estar escrita no tanto en el ADN, sino en la forma en que este se expresa.

Para explorarlo, examinaron las marcas epigenéticas distribuidas a lo largo del ADN en 39 participantes de dos entornos muy diferentes: los Andes ecuatorianos, representados por los kichwa, y la cuenca amazónica, representada por los ashaninka. 

El estudio, publicado en la revista Environmental Epigenetics, detectó cambios epigenéticos en genes relacionados con el funcionamiento del sistema vascular y del músculo cardíaco, además de señales en la vía PI3K/AKT, un circuito biológico implicado en procesos como el crecimiento muscular y la formación de nuevos vasos sanguíneos.

Según los investigadores, estas diferencias epigenéticas podrían ayudar a explicar algunos rasgos fisiológicos característicos de las poblaciones andinas de gran altitud, como el engrosamiento de las paredes arteriales y el aumento de la viscosidad sanguínea. Ambos podrían estar relacionados con la adaptación fisiológica a la hipoxia –la escasez de oxígeno propia de la altura–, aunque también se han asociado con un mayor riesgo de hipertensión pulmonar.

«Los hallazgos son particularmente interesantes porque no estamos viendo estas señales fuertes en el genoma, pero cuando observamos el metiloma sí aparecen estos cambios», explica John Lindo, profesor de antropología en Emory y autor principal del estudio, en un comunicado de la institución.

Más allá del caso concreto, los cambios epigenéticos pueden constituir una respuesta más flexible al entorno y no siempre se transmiten de forma estable entre generaciones. Que estas modificaciones aparezcan en poblaciones cuya presencia en las tierras altas andinas se remonta a casi 10.000 años plantea una pregunta importante: hasta qué punto la epigenética desempeña un papel constante en la adaptación humana a ambientes extremos.

El modelo tibetano: otra solución evolutiva a la hipoxia

Para entender mejor cómo los seres humanos se adaptan a la vida a grandes altitudes, conviene mirar otro laboratorio natural de la evolución: la meseta tibetana. Allí, la evolución habría tomado un camino distinto.

Recientemente, se escribió en DW sobre un estudio publicado en PNAS, liderado por la antropóloga Cynthia Beall de la Universidad Case Western Reserve, analizó a 417 mujeres tibetanas de entre 46 y 86 años que vivían a altitudes de entre 3.000 y 4.000 metros en el Alto Mustang, Nepal. El objetivo era identificar qué características fisiológicas se asociaban con mayor éxito reproductivo, uno de los indicadores más directos de adaptación evolutiva.

El resultado no fue el que muchos habían esperado. Las mujeres con más hijos –algunas llegaron a tener 14– no presentaban niveles excepcionalmente altos de hemoglobina. Por el contrario, mantenían niveles cercanos al promedio, pero con una mayor saturación de oxígeno en la sangre.

Esa combinación se asocia con una mayor eficiencia en el transporte de oxígeno sin espesar la sangre, evitando así la sobrecarga del corazón. Además, las mujeres más fecundas mostraban mayor flujo sanguíneo hacia los pulmones y ventrículos cardíacos más anchos, rasgos que mejoran la eficiencia del sistema circulatorio en condiciones de hipoxia.

Parte de esta adaptación tiene un origen inesperado. Una variante del gen EPAS1, que regula la concentración de hemoglobina y es característica de las poblaciones tibetanas, parece haber sido heredada de los denisovanos, una especie humana extinta que vivió en Siberia hace unos 50.000 años. Sus descendientes la habrían extendido al migrar hacia la meseta tibetana.

«La adaptación a la hipoxia a gran altitud es fascinante porque el estrés es grave, lo experimentan todos por igual a una altitud determinada y es cuantificable», explicó Beall en Science Alert. «Es un bello ejemplo de cómo y por qué nuestra especie presenta tanta variación biológica».

Tomados en conjunto, estos estudios dibujan un panorama que desafía la idea de que la evolución humana es un proceso ya cerrado. Más bien sugieren lo contrario: nuestra especie sigue adaptándose a los entornos en los que vive. En los Andes, poblaciones expuestas durante miles de años a toxinas naturales y escasez de oxígeno han desarrollado respuestas genéticas, epigenéticas y fisiológicas distintas. En el Tíbet, frente al mismo desafío de la hipoxia, la evolución ha seguido una vía genética diferente. La biología humana, al parecer, sigue negociando con su entorno.

Felipe Espinosa Wang

Comentario de AgendAR:

Es así tal cual. Y no se puede decir que la resistencia al arsénico en San Antonio de los Cobres se haya generado en un período corto. Ese lugar está poblado desde hace 7000 años por población poco móvil.

Tal vez la gente haya adquirido algunos genes nuevos, pero nada preparados contra el hidroarsenismo con la llegada del tren.

Pero los hijos, nietos y choznos de europeos no se quedan allí para hacer familias, entre otras cosas porque viven apunados: no aguantan la baja presión de oxígeno.

Hay arsénico de napa en gran parte del territorio argentino, y las llanuras no se salvan..Es geológico, vino con la ceniza fina emitida por los volcanes chilenos.

La ciudad más jodida por arsénico no es puneña: es Venado Tuerto, en Santa Fe. Como toda sal metálica o de metaloides, las de arsénico son casi imposibles de eliminar del agua salvo por ósmosis inversa, un proceso muy caro en instalaciones y en costo operativo: consume bocha de electricidad.

El arsénico en el agua de napa suele estar asociado a flúor. En Puerto Deseado, Santa Cruz, los NyC tienen dientes medio marrones pero como de piedra, libres de caries. Mal sitio para odontólogos.

Daniel E. Arias

En el INTI denuncian que el Estado ofrece empleo precarizado de forma clandestina

0

Desde la asamblea de las y los trabajadores del Instituto Nacional de Tecnología Industrial (INTI) emitieron un comunicado en que aseguran que tras el cierre de las áreas Dirección de Metrología Legal (DML) y del Servicio Argentino de Calibración (SAC), comenzaron a recibir ofertas laborales precarizadas. Parte del desguace en el Estado que está ejecutando el gobierno de Javier Milei

«En las últimas semanas, comenzaron a llegar mails a trabajadores del INTI desde el Organismo Argentino de Acreditación (OAA) y algunos laboratorios privados de calibración. Les solicitaron realizar -denuncia el comunicado- auditorías y ensayos que hasta hace unos meses formaban parte de la oferta tecnológica del Instituto. Esta ‘oferta laboral’ ofrecida de manera clandestina implica facturación de manera individual de esos servicios». 

Y completa: «Es decir, nos ofrecen infringir la Ley de Ética Pública, que nos impone a las y los trabajadores del Estado la exclusividad y confidencialidad, valiéndose de la enorme necesidad económica que estamos atravesando».

«Cacería de talentos» en el INTI

El comunicado continúa señalando que esta “cacería de talentos” demuestra, tal como los trabajadores lo vienen diciendo hace tiempo, que «el INTI es el único organismo con capacidad técnica para garantizar la calidad y trazabilidad de las mediciones». 

También explica que van a buscarlos a ellos porque aunque los privados digan tener equipamiento más moderno y dispongan de recursos discrecionales, «no tienen lo fundamental: a nosotros, los trabajadores del INTI, nuestra capacidad y pericia técnica», remarca.

El escrito de las y los trabajadores enfatiza en que el cierre de la Dirección de Metrología Legal y del Servicio Argentino de Calibración, «se inscribe en la política de disolución del Instituto que este Gobierno se dio desde que asumió«. 

Además, hace un repaso sobre cómo se fue dando el desguace. Primero con la Ley Bases en la que el Gobierno pretendía cerrar el INTI. Luego con el Decreto 462/25, que los transformaba en una mera oficina técnica.

Sin embargo, ese Decreto fue derrotado por la lucha de las y los trabajadores. Entonces empezaron a buscar otras alternativas para llevar adelante el mismo plan y avanzar con la centralización del instituto por la fuerza.

Trabajadores del INTI denuncian que el Estado ofrece empleo precarizado de forma clandestina

Un plan de vaciamiento

«Por ejemplo, el cierre de líneas de trabajo estratégicas como DML y SAC, la falta de presupuesto, el congelamiento salarial, el entorpecimiento de las compras son todas medidas en pos de ese plan de vaciamiento», apunta el comunicado.

El reclamo de las y los trabajadores explica que hubo todo un camino recorrido hasta llegar al cierre de las áreas antes mencionadas. Señala que primero fue con la habilitación de laboratorios privados de metrología a realizar controles metrológicos que el INTI tenía como exclusivas por su capacidad técnica y por su imparcialidad.

Continúa: «Luego, como los usuarios siguieron concurriendo por nuestros servicios, la gerencia de comercialización del INTI decidió aumentar considerablemente los aranceles de los servicios en un 300%«.

Además, cabe destacar que el Sistema Argentino de Calibración fue cerrado y no permitieron a esa red continuar con su labor que está técnicamente reconocida y avalada  por los laboratorios públicos y privados del país.

El Gobierno también disolvió la Dirección de Metrología Legal, que tenía por objetivo cuidar a la población en actividades donde existieran mediciones como el comercio y la salud. Y en medio de toda esta operación que señalan las y los trabajadores: «se desplazó al gerente de metrología histórico, no como un simple cambio de personal, sino como un ‘desguace‘ completo del engranaje metrológico del país».

El comunicado asegura que estas medidas tienen por único objetivo favorecer a unos pocos laboratorios dejando sin oportunidades a otros muchos laboratorios que hacían sus mediciones correctamente.

Advierte que se está convergiendo a una posición monopólica en favor de uno o dos actores en un sistema del que hasta hace poco participaban más de cien laboratorios, tanto públicos como privados. 

El escrito finaliza. «Actualmente, si bien seguimos con tareas, no vemos una línea laboral y de objetivos clara, institucional, sino que la sostenemos por nuestro propio convencimiento. Porque los funcionarios pasan, pero al INTI lo hacemos entre las y los trabajadores«.

Jesús Cabral

Soberanía digital: un desafío concreto para Argentina

0

Mientras que las discusiones en torno a los usos de la inteligencia artificial (IA) que circulan por los medios se circunscriben a impactos sociales, culturales y educativos, hay hoy un tema urgente que merece su espacio en los titulares: cómo crecen los desafíos geopolíticos y ambientales en países del sur global, como en Argentina, con grandes extensiones de territorio y recursos naturales disponibles. Ya se habla no solo de la burbuja de la IA, sino también de la capacidad de estos monstruos de chupar energía. Las cinco Big Tech invertirán 736 millones de dólares entre 2025 y 2026, según Goldman Sachs, y la Agencia Internacional de Energía dice que, para el 2030, absorberán alrededor del 20 % de la demanda global de energía.

Cuando el año pasado se anunció la posibilidad de la construcción de un data center de OpenAl en la Patagonia, no fueron pocas las voces que alertaron sobre la pérdida de soberanía digital, además de los costos ambientales. Esta inversión se da en el marco del polémico RIGI (Régimen de Incentivo para Grandes Inversiones),impulsado por el actual Gobierno, que le quita al Estado nacional herramientas para exigir estándares ambientales, fiscales y de producción local, y que para muchos críticos no es más que un plan paulatino de entrega de recursos argentinos al mejor postor extranjero.

De hecho, se está discutiendo en el Congreso una reforma de la Ley de Glaciares que podría habilitar actividades hoy prohibidas en zonas protegidas como minería y obras de infraestructura, y que constituye un grave retroceso.

Yas García, directora de IA y datos para la Fundación Conocimiento Abierto y Jump Educación, lamenta la falta de transparencia de las negociaciones público-privadas. “Suele ser poco transparente porque mezcla uso de suelo, obras de red eléctrica, contratos de energía, beneficios fiscales (depende del país) y compromisos de empleo, pero bajo confidencialidad comercial”, critica. Agrega que el lanzamiento de Stargate Argentina con Sur Energy y Open AI simula una puerta de empleo, pero en realidad la fuerza laboral será, en un principio, para la construcción. “Es un punto favorable, pero no escalable. Luego permanecerá un equipo reducido”. La incógnita para ella es qué dice la letra pequeña de los verdaderos acuerdos. “¿Tierra?, ¿energía?, ¿quién paga las obras?”, se pregunta.

En un contexto en que las empresas se apresuran a hacer tratos circulares (OpenAI le paga a Oracle por capacidad informática, Oracle a Nvidia por chips y Nvidia invierte millones en OpenAI) y en que buscan cerrar contratos antes de que explote la burbuja, ya no parece exótica la idea de construir un data center en casi cualquier lugar, sean los Polos o hasta el espacio exterior.

Según Milagros Miceli, socióloga y doctora en ingeniería informática en DAIR Institute y Weizenbaum-Institut, la construcción de data centers juega un papel crucial en el convencimiento a los inversores. “El data center es un lugar tangible que se le puede mostrar a un inversor para decir estamos haciendo algo’. La construcción de data centers es un poco inseparable del tema de la burbuja de la IA, que definitivamente es una burbuja y que como tal se sostiene con una promesa: hay que invertir porque esto va a mejorar todo, porque esto va a revolucionar la industria”.

Miceli también resalta que, si bien desde un punto de vista técnico podría pensarse a los sistemas de automatización no como devoradores de energía y datos, sino como algo más sostenible, esto requeriría crear sistemas con menos datos, más cuidados y con infraestructuras mucho más pequeñas. “Pero esta no es la mentalidad que prima en la industria de la inteligencia artificial, sobre todo en Occidente, sobre todo en Silicon Valley”, lamenta.

Pero más allá de la mentalidad en el exterior, aquí las cosas no son mejores. Si afuera las grandes empresas no encuentran incentivos para suavizar el impacto ambiental que conlleva la instalación de estos centros, o marcos legales que las obliguen, en Argentina el proyecto político de “desregulación” se presta no solo para que el entramado de negociación no sea transparente, sino para beneficiar precisamente la falta de controles en todo el espectro.

Hace apenas unas semanas, el Ministro de Desregulación y Transformación, Federico Sturzenegger, comentaba públicamente —y contra tendencia a lo que sucede inclusive en el norte global— que su única tarea es que no aparezca una regulación con respecto a la IA. ¿Qué tipo de salvaguarda de algún tipo se puede esperar entonces?

Dependencia digital

Hay más riesgos para considerar aparte de los ambientales y más allá de si va a haber más claridad sobre las condiciones de desarrollo de la infraestructura y el uso de los recursos locales. Estamos hablando de algo muy importante que ya se advierte desde Nadia (Nodo Argentino de Inteligencia Artificial) en un manifiesto que publicaron: nuestra autonomía y nuestro rol en la cadena global de valor de la IA para no terminar como un mero “depósito” de data centers.

¿Qué gana Argentina con esto? Es una pregunta indispensable y extrapolable a toda la región, ya que hablar de producción de infraestructura y tecnología desde el Sur es uno de los mayores desafíos. “La soberanía digital no es negarse a inversiones: es negociar de forma que haya control, transparencia, retornos locales y protección de derechos”, contextualiza García. “Argentina tiene el potencial para ser un receptor de los grandes poderes de la tecnología, pero debemos fijar condiciones ahora como precedente regulatorio que quede instalado”.

¿Podemos entonces pensar en alternativas que sean más soberanas? ¿Y cómo se vería esa inversión en autonomía real? García asegura que para Argentina hay posibles empresas que pueden liderar una estrategia de soberanía, como YPF y Arsat, en el ámbito energético. “Pero la soberanía digital no la lidera un solo actor: requiere una estrategia país”, comenta.

“Necesitamos un ancla pública de infraestructura y conectividad, un sistema energético que garantice adicionalidad renovable y flexibilidad sin competir con la demanda local, y una serie de capacidades —universidades, ciencia y sector productivo— para capturar valor”, cierra. “Si solo atraemos máquinas sin construir capacidades, nos volvemos territorio de cómputo y no productores de tecnología”.

Laura Marajofsky

Ley de semillas: productores agrarios rechazan una parte clave del acuerdo comercial con EE.UU.

0

En medio del debate por una eventual actualización del marco normativo en semillas, desde el norte argentino surgió una fuerte señal de alerta. La Asociación de Productores Agrícolas y Ganaderos del Norte (Apronor) cuestionó la posibilidad de avanzar hacia un esquema alineado con UPOV 91 y advirtió sobre un presunto riesgo de concentración del mercado y pérdida de derechos para los productores. UPOV 91 es un tratado internacional que amplía derechos a los obtentores en semillas y al cual el Gobierno se comprometió adherir en el acuerdo comercial con Estados Unidos.

En un comunicado, la entidad puso el foco en lo que considera un diagnóstico equivocado sobre el estancamiento productivo. “Más de un funcionario del actual Gobierno afirma que los volúmenes de producción en Argentina se mantienen estancados por no tener una nueva Ley de Semillas”, señalaron.

En esa línea, cuestionaron directamente la idea de que la adhesión a UPOV 91 sea la solución. “Se está instalando en los medios de comunicación especializados y no tan especializados en materia agropecuaria que nuestro país tiene que adherir a las normas UPOV 91”, indicaron.

El documento también incluyó críticas al Gobierno por el enfoque del problema. “El señor ministro Federico Sturzenegger falta a la verdad, confunde a la opinión pública, incluso tal vez al Presidente de la Nación”, afirmaron.

Para Apronor, el origen del estancamiento productivo no está en la legislación de semillas, sino en la presión impositiva. “Claramente nuestra producción no crece por efecto de los Derechos de Exportación (DEX), que desde hace años esquilman a nuestros productores y empobrecen los pueblos del interior de nuestra Patria”, expresaron.

En ese contexto, pidieron un cambio de enfoque en la política agropecuaria. “Le pedimos al ministro que no favorezca a unos pocos con RIGI y mate a muchos con DEX”, remarcaron.

En ese sentido, marcaron una diferencia clave en el modelo regulatorio. “Hablemos claro, Brasil adhiere a UPOV 78 (permite el uso propio) y no tiene Derechos de Exportación”, afirmaron
En ese sentido, marcaron una diferencia clave en el modelo regulatorio. “Hablemos claro, Brasil adhiere a UPOV 78 (permite el uso propio) y no tiene Derechos de Exportación”, afirmaronArchivo

Como contrapunto, el comunicado tomó el caso de Brasil para reforzar su postura. “En Brasil, el sector agropecuario pasó de representar el 18% al 25% del PBI en 10 años, y duplicó su producción total de granos en el mismo tiempo”, indicaron.

Además, destacaron el crecimiento sostenido del país vecino. “Alcanzó niveles récord (345 millones de toneladas), impulsada principalmente por soja y maíz”, señalaron.

En ese sentido, marcaron una diferencia clave en el modelo regulatorio. “Hablemos claro, Brasil adhiere a UPOV 78 (permite el uso propio) y no tiene Derechos de Exportación”, afirmaron.

Otro de los puntos críticos del documento apunta a la institucionalidad del sistema. “Es llamativo cómo funcionarios provenientes de distintos semilleros han ocupado los principales cargos del instituto [Inase] que tiene que ‘regular’ el área de semillas”, cuestionaron.

La entidad también puso en duda el perfil técnico de algunos funcionarios. “Igualmente, es llamativo que algunos sean abogados y no profesionales del área de producción”, remarcaron.

En ese marco, plantearon interrogantes sobre el alcance de eventuales controles. “¿A quiénes van a enviar cartas documento? ¿A quiénes van a llevar a juicio? ¿A quiénes van a multar? A buen entendedor…”, advirtieron.

El comunicado también diferenció la situación según el tipo de cultivo. En el caso del maíz, señalaron problemas productivos que, según indicaron, no reciben la atención necesaria. “En alógamas como el maíz el instituto del área y otros organismos del Estado parecen no preocuparse”, afirmaron. En particular, mencionaron dificultades sanitarias en el norte. “No hacen foco en los problemas graves que sufrimos, especialmente en el norte, por ejemplo, el complejo de enfermedades del achaparramiento del maíz”, indicaron.

Agregaron que en cultivos autógamos el control es más estricto. “En autógamas la situación cambia: el instituto envía cartas documento, aplica multas millonarias. Es inflexible y atenta permanentemente contra el uso propio de las semillas de los productores agropecuarios”, sostuvieron.

Incluso apuntaron contra decisiones regulatorias recientes. “Dictan resoluciones retroactivas (inconstitucionales) que parecieran redactadas en las oficinas de la poderosa asociación que nuclea a los semilleros (ASA)”, afirmaron.

Frente a este escenario, el tono del documento se volvió más enfático. “¡Señores productores, estemos alerta, vienen por nosotros!”, advirtieron.

Según señalaron, el avance regulatorio podría afectar prácticas históricas del sector. “Durante muchos años conservamos nuestras semillas y alimentamos a la humanidad toda”, remarcaron.

Recordaron planteos previos que, según indicaron, no se condicen con la realidad actual. “Todavía resuena la frase de algunos dirigentes del Norte: ‘no queremos que paguen multas, queremos que ustedes inviertan en genética’. Pero la realidad es que al Estado, como así a algunos semilleros, poco les importa la producción: solo les importa la recaudación/facturación”, señalaron.

Científicos «inventaron» una enfermedad para probar a la IA. La aceptó como real

0

¿Tienes los ojos irritados y con picazón? Probablemente eres una de las millones de personas que pasan demasiado tiempo mirando pantallas, siendo bombardeadas con luz azul. Si te frotas los ojos demasiado, los párpados podrían adquirir un ligero tono rosado.

Hasta aquí, todo normal. Pero si, en los últimos 18 meses, usted escribió esos síntomas en una variedad de chatbots populares y preguntó qué le pasaba, podría haber obtenido una respuesta extraña: bixonimania.

La afección no aparece en la literatura médica estándar, porque no existe. Es la invención de un equipo dirigido por Almira Osmanovic Thunström, investigadora médica de la Universidad de Gotemburgo (Suecia), quien se inventó la afección cutánea y luego subió dos estudios falsos sobre ella a un servidor de preimpresión a principios de 2024. Osmanovic Thunström llevó a cabo este inusual experimento para comprobar si los grandes modelos de lenguaje (LLM) tragarían la desinformación y luego la escupirían como un consejo de salud de buena reputación. «Quería ver si podía crear una afección médica que no existiera en la base de datos», dice.

El problema fue que el experimento funcionó demasiado bien. A las pocas semanas de que subiera información sobre la afección, atribuida a un autor ficticio, los principales sistemas de inteligencia artificial comenzaron a repetir la afección inventada como si fuera real.

Lo que resulta aún más preocupante, según otros investigadores, es que los artículos falsos fueron citados posteriormente en publicaciones revisadas por pares. Osmanovic Thunström afirma que esto sugiere que algunos investigadores se basan en referencias generadas por IA sin leer los artículos subyacentes.

Fingir una enfermedad

La bixonimanía no existía antes del 15 de marzo de 2024, cuando aparecieron dos entradas de blog sobre ella en el sitio web Medium. Luego, el 26 de abril y el 6 de mayo de ese año, aparecieron dos preimpresiones sobre la afección en la red social académica SciProfiles (véase doi.org/qzm5 y doi.org/qzm4). El autor principal era un investigador falso llamado Lazljiv Izgubljenovic, cuya fotografía fue creada con IA.

Osmanovic Thunström dice que la idea de inventar a Izgubljenovic y la bixonimania surgió de estudios sobre cómo funcionan los grandes modelos de lenguaje. Cuando enseña a sus alumnos cómo los sistemas de IA formulan su «conocimiento», les muestra cómo la base de datos Common Crawl, una gigantesca red de los contenidos de Internet, informa sus resultados. También les muestra a los estudiantes cómo la inyección de instrucciones —darle a un chatbot de IA una instrucción que lo desvía de sus barreras de seguridad— puede manipular el resultado.

Como trabaja en el campo de la medicina, decidió crear una afección relacionada con la salud y se le ocurrió el nombre de bixonimania porque «sonaba ridículo», dice. «Quería dejar muy claro a cualquier médico o miembro del personal médico que esta es una afección inventada, porque ninguna afección ocular se llamaría manía, ese es un término psiquiátrico».

Por si esto no fuera suficiente para levantar sospechas, Osmanovic Thunström sembró muchas pistas en los preprints para alertar a los lectores de que el trabajo era falso. Izgubljenovic trabaja en una universidad inexistente llamada Asteria Horizon University, en la igualmente ficticia Nova City, California. En los agradecimientos de un artículo se da las gracias a «la profesora Maria Bohm de la Academia de la Flota Estelar por su amabilidad y generosidad al contribuir con sus conocimientos y su laboratorio a bordo de la USS Enterprise». Ambos periódicos afirman que fueron financiados por la «Fundación Profesor Sideshow Bob para su trabajo en el arte del engaño avanzado». Este trabajo forma parte de una iniciativa de financiación más amplia de la Universidad de Fellowship of the Ring y la Tríada Galáctica.

Incluso si los lectores no llegaran hasta el final de los artículos, habrían encontrado señales de alerta desde el principio, como las afirmaciones de que «todo este artículo es inventado» y «se reclutaron cincuenta individuos inventados de entre 20 y 50 años para el grupo de exposición».

Triptych showing close-up views of slightly swollen and red eyelids.
AI-generated images of bixonimania, a fictitious illness.Source: Preprints.org doi.org/qzm4 (2024).

Poco después de que Osmanovic Thunström publicara por primera vez información sobre la condición falsa, esta comenzó a aparecer en los resultados de los chatbots de modelos de lenguaje grande más utilizados. El 13 de abril de 2024, el Copilot de Microsoft Bing declaraba que «la bixonimanía es, en efecto, una afección intrigante y relativamente rara», y el mismo día, el Gemini de Google informaba a los usuarios de que «la bixonimanía es una afección causada por la exposición excesiva a la luz azul» y les aconsejaba visitar a un oftalmólogo. El 27 de abril de 2024, el motor de respuestas de Perplexity AI describió su prevalencia (una de cada 90.000 personas se veía afectada) y ese mismo mes, el GPT de OpenAI les decía a los usuarios si sus síntomas equivalían a bixonimania. Algunas de esas respuestas se obtuvieron al preguntar sobre la bixonimania, y otras fueron en respuesta a preguntas sobre la hiperpigmentación en los párpados por la exposición a la luz azul.

Estas respuestas de los modelos de lenguaje grandes han alarmado a algunos expertos. «Si el proceso científico en sí y los sistemas que lo sustentan son competentes, y no están captando y filtrando fragmentos como estos, estamos condenados», afirma Alex Ruani, investigadora doctoral en desinformación sanitaria en el University College de Londres. «Esta es una clase magistral sobre cómo operan la desinformación y la información errónea».

Ruani dice que los detalles del experimento de la enfermedad falsa pueden parecer tontos, pero hay un problema más grande y fundamental. «Tiene una pinta rara, pero espera, tenemos un problema aquí», dice ella.

La desinformación en línea no es algo nuevo; Google lleva mucho tiempo luchando contra los intentos de manipular sus clasificaciones de búsqueda con contenido falso o engañoso. La empresa y otras han pasado años perfeccionando algoritmos para clasificar y filtrar la información que los motores de búsqueda presentan a los usuarios, pero los LLM tienen dificultades con esto.

Desde que salieron los documentos falsos, algunas versiones de los principales modelos de lenguaje han llegado a ser lo suficientemente sofisticadas como para expresar sospechas sobre la bixonimania. Cuando se le preguntó sobre la condición el 11 de marzo de 2026, por ejemplo, el chatGPT declaró que la condición «es probablemente una etiqueta inventada, marginal o pseudocientífica». Pero unos días después, el propio chatGPT se mostró menos escéptico y afirmó: «La bixonimania es un nuevo subtipo propuesto de melanosis periorbital (ojeras) que se cree que está asociado con la exposición a la luz azul de las pantallas digitales».

A mediados de marzo, Microsoft Copilot afirmó que la bixonimania «aún no es un diagnóstico médico ampliamente reconocido, pero varios artículos y reportes de casos emergentes la discuten como una condición benigna y mal diagnosticada, vinculada a la exposición prolongada a fuentes de luz azul como las pantallas».

Y en enero de este año, Perplexity describía la bixonimanía como «un término emergente». Al mostrarle esa respuesta, un portavoz de Perplexity dijo: «La principal ventaja de Perplexity es la precisión». No pretendemos ser 100 % precisos, pero sí afirmamos ser la empresa de IA más centrada en la precisión.

Un portavoz de OpenAI dijo: «Los modelos que impulsan la versión actual de ChatGPT son significativamente mejores para proporcionar información médica segura y precisa, y los estudios realizados antes de GPT-5 reflejan capacidades que los usuarios no encontrarían hoy en día».

Cuando se le preguntó sobre las respuestas anteriores de Gemini que trataban la bixonomanía como una condición real, un portavoz de Google dijo que tales resultados reflejaban el rendimiento de un modelo anterior. Añadieron: «Siempre hemos sido transparentes sobre las limitaciones de la IA generativa y proporcionamos indicaciones en la aplicación para animar a los usuarios a verificar la información». Para asuntos delicados como el asesoramiento médico, Gemini recomienda a los usuarios que consulten con profesionales cualificados.

Microsoft no respondió a una solicitud de comentarios.

Parte del problema es que los modelos de IA pueden ofrecer resultados muy diferentes dependiendo de lo que se les pregunte y del tipo de información en la que se basen. Busca «bixonimania» y la descripción general de IA de Google podría tratarlo como una afección legítima. Pregúntale: «¿Es real la bixonimania?» y la misma descripción general de la IA podría confirmar que no es legítima.

Mahmud Omar, médico e investigador especializado en las aplicaciones de la IA en la atención sanitaria en la Facultad de Medicina de Harvard en Boston, Massachusetts, dice que la velocidad a la que las empresas de IA están implementando nuevos modelos hace que sea difícil llegar a «una cartera de proyectos, un consenso o una metodología para probar automáticamente cada modelo».

El formato del experimento de la enfermedad falsa, y la forma en que los resultados pretendían provenir de una fuente oficial, es decir, un artículo académico, podría haber sido un factor clave en su éxito. En un estudio independiente de 20 LLM, Omar descubrió que los LLM son más propensos a alucinar y a elaborar información errónea cuando el texto que procesan parece profesionalmente médico (formateado como una nota de alta hospitalaria o un artículo clínico) que cuando procede de publicaciones en redes sociales (M. Omar et al. Lancet Digit. Salud 8, 100949; 2026). «Cuando el texto tiene un aspecto profesional y está escrito como lo haría un médico, aumentan las tasas de alucinación», afirma Omar.

El alcance del experimento se ha extendido ahora a la literatura médica publicada. La investigación sobre la bixonimania ha sido citada por un puñado de investigadores, incluido un estudio que apareció en Cureus, una revista publicada por Springer Nature, la editorial de Nature, por investigadores del Instituto Maharishi Markandeshwar de Ciencias Médicas e Investigación en Mullana, India (S. Banchhor et al. Cureus 16, e74625 (2024); retractación 18, r223 (2026)). (El equipo de noticias de Nature es editorialmente independiente de su editor). Ese estudio cita uno de los preprints falsos y dice: «La bixonimania es una forma emergente de POM [melanosis periorbital] vinculada a la exposición a la luz azul; se está investigando más a fondo el mecanismo».

El autor correspondiente no respondió a una solicitud de comentarios sobre esta historia. Después de que Nature se pusiera en contacto con Cureus para pedirle comentarios, la revista retiró el artículo el 30 de marzo. El aviso de retracción dice: «Este artículo ha sido retirado por el editor en jefe debido a la presencia de tres referencias irrelevantes, incluida una referencia a una enfermedad ficticia. Como resultado, el equipo editorial de la revista ya no confía en la exactitud ni en la procedencia del trabajo, por lo que se requiere su retractación. Los autores no están de acuerdo con la decisión de retractarse.

Ruani afirma que el problema va más allá de los modelos de lenguaje grandes, porque el experimento de la bixonimanía también engañó a los humanos que citaron la investigación falsa. «Tenemos que proteger nuestra confianza como si fuera oro», dice. «Ahora mismo es un desastre».

Cuestiones experimentales

Osmanovic Thunström tuvo reservas al desarrollar su experimento; le preocupaban los riesgos de sembrar una enfermedad falsa en la literatura científica. Así que se puso en contacto con un asesor de ética para evaluar las preocupaciones sobre el trabajo y eligió una condición de riesgo comparativamente bajo para limitar el impacto. «Quería asegurarme de que no estuviéramos causando más daño que bien al demostrarlo de esta manera», dice.

Ese asesor, David Sundemo, médico que investiga la IA en la atención sanitaria en la Universidad de Gotemburgo, afirma que la decisión estuvo finamente equilibrada. «Creo que es un trabajo muy valioso, pero también es un poco controvertido en algunos aspectos, especialmente cuando se trata de mostrar esta información falsa», dice. «Desde mi punto de vista, vale la pena el coste ético de plantar información falsa a este respecto», dice Sundemo.

Pero incluso con esas comprobaciones, el experimento resulta incómodo para algunos investigadores. «Me parece que han generado una forma de desinformación», dice Glenn Cohen, de la Facultad de Derecho de Harvard en Cambridge, Massachusetts, quien se especializa en la intersección de la ética médica y el derecho. Sin embargo, sigue diciendo que le parece un «gran estudio» y que «el seguimiento de los resultados es bueno».

Por su parte, Osmanovic Thunström está indecisa sobre qué hacer con los dos artículos falsos y lo discutirá con otros investigadores. «Si se retira, podría ser difícil para otros encontrar la fuente y verificar nuestro camino», dice. «Si se deja, seguirá apareciendo en las búsquedas». La pregunta que siente que debe abordar es si dejar los preprints disponibles hace más daño que bien al demostrar los problemas potenciales de la IA.

El experimento de la bixonimanía es una nueva vuelta de tuerca a un problema mayor: el envenenamiento de los sistemas de IA por parte de personas que manipulan la literatura académica. Elisabeth Bik, microbióloga y detective de la integridad en la investigación, señala que los investigadores han creado libros y artículos falsos para inflar sus recuentos de citas en Google Scholar, explotando así los mismos sistemas de indexación automatizados que alimentan los datos de entrenamiento de los LLM. La preocupación es que cuanto más contenido falso se introduce en los modelos de IA, más probable es que esos modelos de IA regurgiten la información falsa, alejándonos aún más de los hechos y la realidad. «Todo está automatizado, por lo que hay muy pocas posibilidades de que un humano interfiera y elimine información falsa», dice.

Es especialmente peligroso cuando la información fabricada se filtra en las guías médicas de los modelos de lenguaje grandes, dice Bik. «Eso puede ser muy perjudicial». Y a medida que más empresas de IA lanzan productos centrados en la salud (OpenAI lanzó ChatGPT Health en enero, por ejemplo), el daño potencial resultante de cualquier error aumenta, según informaron algunos investigadores a Nature.

OpenAI cuestiona esa opinión. «El sistema de salud de ChatGPT está impulsado por nuestros últimos modelos que ofrecen el mayor rendimiento en el uso de la salud en el mundo real, un razonamiento clínico más sólido, menos errores fácticos y un mejor rendimiento en las evaluaciones», dice un portavoz de OpenAI. Añaden que los resultados de Osmanovic Thunström «reflejan capacidades que los usuarios no encontrarían hoy en día en ChatGPT o en la versión para profesionales de la salud de este programa».

Sin embargo, entre algunos investigadores existe un escepticismo creciente sobre las capacidades de los modelos de IA en medicina. Cuando se le preguntó sobre este tipo de uso, Cohen dijo: «Hay preguntas abiertas sobre cuánta confianza merece, especialmente en lo que respecta a cuestiones específicas de la aplicación».

La tendencia acrítica de la IA a absorber información, a menudo sin verificar su exactitud, significa que existe el riesgo de que podamos ver una «asimetría de la información», dice Jennifer Byrne, oncóloga molecular y detective de integridad de la investigación en la Universidad de Sídney en Australia. Un solo artículo correctivo sobre la investigación del cáncer, por ejemplo, puede verse abrumado por cientos de artículos que repiten una afirmación falsa, dice. «El chatGPT tiene bastante confianza en rellenar los huecos y dar a la gente todo tipo de información sobre el origen de esa línea celular, el paciente del que procede, cómo se ha utilizado en la literatura, su utilidad en la investigación, etc.», dice.

Y si los modelos de lenguaje grandes pueden ser envenenados, «esto es algo que nos preocupa», dice Byrne.

Otra preocupación es que los modelos podrían ser manipulados, potencialmente para obtener un beneficio comercial. Osmanovic Thunström afirma que un actor malintencionado podría explotar la misma técnica que ella utilizó con fines de lucro. «¿Y si yo fuera una vendedora de gafas de luz azul y quisiera usar esto como argumento?», dice. Un posible vendedor podría decir: «Puedes hablar con ChatGPT y te dirá que esto es un problema». «Puedes evitarlo con estas gafas tan caras», sugiere.

Una forma de abordar esto sería tener un proceso de evaluación automatizado y de acceso abierto: una batería estandarizada de pruebas que todos los modelos de salud orientados al consumidor tendrían que superar antes de su implementación, comprobando no solo las alucinaciones, sino también la susceptibilidad a la desinformación, los sesgos sociodemográficos y otros puntos de presión. «Deberíamos evaluarlo y tener un plan para una evaluación continua», dice Omar.

El tiempo apremia, porque a Byrne le preocupa que el problema identificado por Osmanovic Thunström sea solo la punta del iceberg. «Es preocupante que estas afirmaciones tan importantes se acepten sin cuestionarlas en la literatura o en la revisión por pares», afirma. «Creo que probablemente haya muchos otros problemas que no se han descubierto».

Eso es algo que también preocupa a otros expertos, ya que la IA se está convirtiendo en la norma en todas las áreas de nuestras vidas, incluida la forma en que las personas piensan sobre su salud. «Nosotros y nuestra salud no deberíamos ser los probadores beta de las empresas», dice Cohen.

Chris Stokel-Walker

Modi anuncia el encendido del reactor nuclear más avanzado de India

0

El primer ministro indio, Narendra Modi, ha anunciado que el Reactor Prototipo de Reproducción Rápida (PFBR) de Kalpakkam, en el estado sureño de Tamil Nadu, ha alcanzado la «criticidad», un hito técnico que marca el inicio de una reacción nuclear en cadena autosostenible.

«Hoy, la India da un paso decisivo en su viaje nuclear civil. El reactor de diseño y construcción nacional ha alcanzado la criticidad. Este reactor avanzado, capaz de producir más combustible del que consume, refleja la profundidad de nuestra capacidad científica», escribió Modi en la red social X.

Este avance sitúa a India en la vanguardia tecnológica mundial, uniéndose a Rusia y China como las únicas naciones con reactores rápidos de gran potencia en fase operativa o de pruebas avanzadas.

Mientras Rusia opera modelos a escala comercial y China mantiene un reactor de demostración desde 2023, India busca con esta planta de 500 megavatios eléctricos (MWe) la viabilidad comercial para su independencia energética.

Modi ya había visitado la planta el 4 de marzo de 2024 para presidir el inicio de la carga del combustible en el núcleo, que marcó el comienzo de la fase final de pruebas.

El reactor nuclear de India

La clave de este reactor es su capacidad para «reproducir» combustible mediante neutrones rápidos, lo que permitirá al país utilizar sus inmensas reservas de torio y alcanzar la independencia energética total, según datos del Departamento de Energía Atómica.

La criticidad del reactor se ha alcanzado tras una gestión accidentada que obligó a retrasar el encendido efectivo dos años desde que comenzara la carga de combustible en marzo de 2024, debido a fallos mecánicos en los sistemas de transferencia.

Informes de auditoría del Comité Parlamentario de Ciencia y Tecnología de India revelan un retraso acumulado de 16 años respecto a la planificación original de 2010, lo que ha disparado el presupuesto desde los 34.920 millones de rupias indias iniciales (unos 325,4 millones de euros) hasta los 81.810 millones reportados en junio de 2025, unos 762,5 millones de euros al cambio de hoy.

Tras alcanzar la criticidad este lunes, el reactor iniciará ahora una fase de pruebas a baja potencia bajo la supervisión de la Junta Reguladora de Energía Atómica antes de su conexión definitiva a la red eléctrica, prevista para finales de este 2026.

43 años de la central Embalse: un hito en el desarrollo de la energía nuclear en Argentina

0

La energía nuclear vuelve a posicionarse como un pilar estratégico en la matriz energética global. Un buen momento para recordar que en marzo de 2026, la Central Nuclear Embalse cumplió 43 años desde la puesta en marcha de su reactor, mientras que Atucha I continúa destacándose como una de las instalaciones más emblemáticas del país. Ambas centrales no solo celebran su trayectoria, sino que refuerzan su rol en la generación eléctrica nacional.

Actualmente, las centrales nucleares aportan alrededor del 10% de la electricidad que se consume en Argentina, un porcentaje que resulta clave para garantizar un suministro constante y reducir la dependencia de combustibles fósiles. En un escenario global marcado por la transición energética, el sector nuclear se mantiene como una fuente confiable y de bajas emisiones.

En el caso de Embalse, ubicada en la provincia de Córdoba, el aniversario cobra especial relevancia. El 13 de marzo se cumplieron 43 años de la puesta en marcha de su reactor, que cuenta con una potencia de 656 MW. Se trata de la segunda central nuclear construida en el país y una de las más importantes del sistema eléctrico nacional.

Tras finalizar su primer ciclo operativo en 2015, la planta atravesó un ambicioso Proyecto de Extensión de Vida, que concluyó en 2019 y le permitió iniciar un nuevo ciclo de operación por otros 30 años. Este proceso incluyó trabajos de gran complejidad técnica, como el recambio de tubos de presión, generadores de vapor y sistemas informáticos.

La obra no solo permitió modernizar la central, sino que también tuvo un fuerte impacto económico y tecnológico. Más de 3000 personas participaron de manera directa en el proyecto, que además impulsó el desarrollo de proveedores nacionales especializados en bienes y servicios de alta complejidad.

Gracias a esta extensión de vida, Embalse continuará aportando energía segura y confiable para más de 3 millones de habitantes. Además, contribuye a diversificar la matriz energética, reducir emisiones de gases de efecto invernadero y sostener el empleo de más de 1000 familias durante las próximas décadas.

Otro aspecto destacado es su capacidad para producir Cobalto 60, un insumo clave utilizado en aplicaciones médicas e industriales, que también se exporta. Este valor agregado posiciona a la central no solo como generadora de electricidad, sino también como un actor relevante en el desarrollo tecnológico.

Por su parte, la Central Nuclear Atucha I, ubicada en Lima, provincia de Buenos Aires, continúa siendo un símbolo de la historia nuclear argentina. Desde su primera conexión a la red en 1974, se consolidó como la primera central nuclear de América Latina y mantiene su operación con una potencia de 362 MW.

Atucha I utiliza una combinación de uranio natural y levemente enriquecido, y su tecnología basada en agua pesada le permite operar con altos estándares de seguridad. A lo largo de su historia, ha contribuido al ahorro de recursos naturales y a la reducción del impacto ambiental, evitando emisiones contaminantes.

El complejo nuclear argentino se completa con Atucha II, una central de mayor potencia —745 MW— que fue finalizada tras la reactivación del Plan Nuclear en 2006. Su puesta en funcionamiento permitió recuperar capacidades técnicas e industriales en el país, fortaleciendo el desarrollo del sector.

La historia nuclear argentina se remonta a más de seis décadas, cuando el Estado comenzó a impulsar esta actividad como parte de una visión estratégica de largo plazo. Desde entonces, el país ha desarrollado tecnología propia, recursos humanos especializados y una infraestructura que lo posiciona entre las naciones con capacidad nuclear.

De cara al futuro, el desarrollo del sector aparece como un componente clave en la planificación energética hacia 2050. La extensión de vida de las centrales existentes y la eventual expansión del parque nucleoeléctrico forman parte de los desafíos para garantizar el abastecimiento y avanzar hacia una matriz más diversificada y sustentable.

En ese marco, el aniversario de Embalse no solo celebra su historia, sino que también refleja la continuidad de una política energética que apuesta por la innovación, la soberanía tecnológica y la seguridad en el suministro eléctrico.