martes, 16 diciembre, 2025 - 3:54 am

Escuelas tecnicas: 1.400.000 alumnos y la educación es de nivel mundial

0
La calidad de los títulos de las escuelas técnicas secundarias en Argentina es «de nivel mundial» y «hay sobredemanda» de matriculación en estos establecimientos, que en su mayoría son públicos, por lo que se espera en diez años alcanzar un 30 % de certificaciones en la especialidad, destacó el director del Instituto Nacional de Educación Tecnológica (INET), Gerardo Marchesini, en el marco del Día de la Educación Técnica que se celebra que se celebró ayer. En las 1.700 escuelas técnicas de nivel secundario del país cursan casi 800 mil estudiantes y, sumado a los y las alumnas que integran los centros de formación profesional y los institutos técnicos superiores no universitarios, son cerca de 1.400.000, según datos de 2022 del Inet, que depende del Ministerio de Educación. «La Educación Técnica Profesional (ETP) es importante porque no se puede desarrollar actividad económica si no se tienen los recursos humanos», dijo Marchesini, quien también es técnico químico egresado de la Escuela Técnica Otto Krause, con 37 años de trayectoria como docente. Destacó que «la calidad de los títulos técnicos secundarios en Argentina es de nivel mundial» y, en ese sentido, dijo que estaban «orgullosos de los niveles técnicos» y que la meta era «hacer aún más». «Venimos de un proceso de mucha inversión en el 2021, 2022 y 2023. Y, a pesar de las dificultades económicas, estamos sobrepasando el 0,2% del presupuesto como fue dispuesto por la Ley N° 26.058 de 2005, que, impulsada por (el entonces presidente) Néstor Kirchner, recuperó la educación técnica que habíamos perdido con la descentralización y cierre del anterior ente regulador, el Consejo Nacional de Educación Técnica (Conet), en 1994», recordó el funcionario. El Día de la Educación Técnica se celebra en conmemoración de la creación del Conet, el 15 de noviembre de 1959, que otorgó a la enseñanza técnica y profesional un rol preponderante en el sistema educativo argentino. La voz de los alumnos Para León Arriola (18), un estudiante de 6° año de la Escuela Técnica N° 9 Ing. Luis Huergo, de gestión pública, ubicada en el barrio porteño de Caballito, «la educación técnica rinde sus frutos y es útil». «Lo que aprendemos de matemáticas, ciencias exactas y práctica me sirve para el preingreso a la facultad. Si no hubiese tenido la contención y explicación de la escuela técnica, tendría que estar pagando profesor particular por cada materia que quisiera cursar», precisó el joven que en dos meses egresará como técnico mecánico y se prepara para estudiar Ingeniería mecánica en la Universidad de Buenos Aires (UBA), mientras realiza a la vez una pasantía en una empresa que hace mantenimiento de calderas. Asimismo, resaltó «la esencialidad de la educación pública» como herramienta indispensable para el desarrollo industrial del país y para el acceso de cualquier persona a este tipo de conocimiento. «Elegí mecánica porque nos decían que era ‘la más difícil’. Me motivó porque laboralmente quisiera desarrollarme en el ámbito automotriz», agregó León sobre la elección que hizo en tercer año en su escuela, cuando tuvo que optar también entre Construcción, Eléctrica, Química u Ortopedia. En su especialidad, aprendió entre otras cosas a usar herramientas como martillo, torno, fresa, agujereadora; y a hacer desde una mesa plegable hasta arreglar un torno, «cosas que tienen relevancia y que motivan a la persona, porque si sé cómo usarlas, sé explicar el funcionamiento y sé interpretar un plano, y puedo arreglar, por ejemplo, un problema que haya en mi casa», destacó. Además, resaltó que aprender a construir herramientas «es un golazo» porque «son cosas caras y poder fabricarlas permite no depender de nadie». La Educación Técnica Profesional La ETP se basa en dos pilares, explicó Marchesini, que son las prácticas y los entornos formativos, y requiere de «una enorme inversión» porque «los estudiantes tienen que aprender con lo que el sector productivo va a usar mañana para ser técnicos capacitados». Además, dijo que en ETP todas las nuevas tecnologías -como la inteligencia artificial o big data– se encuentran transversalmente en los programas y son utilizadas en las carreras. Asimismo, «la mayoría de las instituciones de educación técnica son públicas, y las instituciones privadas representen menos del 10%», añadió. En el país, los títulos ligados a ETP «casi se triplicaron en diez años -del 2005 al 2015- pasando del 6,5% del total de títulos y certificados emitidos en Argentina a 16%», puntualizó Marchesini. En la actualidad, «el 18,5% del total de títulos y certificados están ligados a la ETP en el país», y el objetivo, teniendo como referencia a países industrializados, «es llegar a más del 30% en los próximos 10 años, una meta alcanzable que requiere inversión y políticas públicas», consideró el funcionario, porque se dan una serie de condiciones en la Argentina que son «muy alentadoras» en áreas «hiper demandadas internacionalmente», como: la de las energías convencionales y no convencionales, la minería de metales pesados y de litio, los bioalimentos y alimentos, la industria forestal en Argentina, la economía regional y la marítima. Respecto de la demanda laboral, el titular de Inet señaló que «hoy los ciclos tecnológicos maduran muy rápido, aún mientras se están forman los perfiles, y estas tensiones entre demanda laboral y oferta es un tema actual candente. Lo que tenemos que hacer es pensar un modelo productivo y de trabajo y luego discutir qué perfiles necesitamos para atender la demanda laboral», completó. La matrícula femenina En cuanto a participación femenina en ETP, el funcionario explicó que «antes de la ley en 2005 la participación total llegaba al 10% de mujeres y hoy en la escuela secundaria técnica está en 35%». A su vez, en el caso del nivel superior técnico y de formación profesional, dijo que «la matrícula femenina es mayor a la masculina», pero admitió que «lo que se ve es el sesgo del mundo del trabajo y de la sociedad machista», porque «la mayoría de las mujeres estudian estética, informática y administración, y en metalmecánica la mayoría son hombres», según precisó. Entre el 6 y 24 de noviembre se desarrolla la Olimpíada nacional en aeronáutica, electromecánica, construcciones, electrónica, energía eléctrica, energías renovables, industrias de procesos, informática, producción agropecuaria, programación, química, y tecnología de alimentos, donde chicos y chicas, resuelven en equipo una problemática real puesta en la máxima incumbencia profesional del título, pasan por varias instancias y defienden sus proyectos, por los que son reconocidos tanto a nivel personal como institucional junto a las comunidades educativas.

ChatGPT es el producto tecnológico de más rápida adopción de la historia. Y ya afecta el mercado laboral

ChatGPT apareció en escena el 30 de noviembre de 2022. Se convirtió en el producto tecnológico de más rápida adopción de la historia, llegando a los 100 millones de usuarios más rápido que Google, Facebook o cualquier app. No hubo dudas acerca de que su irrupción iba a provocar cambios en el mercado laboral. La cuestión es cuáles, cuándo y cómo. Un año después, los primeros estudios apuntan a una precarización de las profesiones más relacionadas con las capacidades de la inteligencia artificial (IA) generativa y una reducción general de las diferencias de rendimiento entre los trabajadores con más competencias y aquellos menos preparados. Los resultados provienen de dos investigaciones independientes que analizaron el impacto de ChatGPT y las IA generativas en dos entornos diferentes. La primera, firmada por investigadores de la Universidad de Washington y la de Nueva York, midió la evolución de las ofertas de empleo y su remuneración en la plataforma de empleo freelance Upwork. Se centró en las dos profesiones más afectadas por la nueva tecnología: redacción de contenidos y diseño gráfico. “Comprobamos que los autónomos de las ocupaciones más afectadas sufren las consecuencias de la introducción de la IA generativa, experimentando reducciones tanto en el empleo como en los ingresos”, destaca este estudio. Estas evidencias son “preliminares”, ya que el rango del estudio es aún corto, pero muestran que los empleos ofertados en la plataforma para estas profesiones se redujeron un 5,2% y el sueldo medio de los profesionales cayó un 2% en comparación con otras menos afectadas por la IA. Al medir qué trabajadores freelance padecían más la irrupción de ChatGPT, los investigadores hallaron que los más expertos no estaban a salvo de esa precarización. Todo lo contrario. “No encontramos pruebas de que un servicio de alta calidad, medido por su rendimiento y empleo anteriores, modere los efectos adversos sobre el empleo. De hecho, encontramos pruebas sugestivas de que los mejores autónomos se ven desproporcionadamente afectados por la IA”. La otra cara de la moneda es que la aparición de las IA generativas puede ayudar a los freelance menos expertos. Es decir, iguala por abajo y “puede tener el potencial de reducir las diferencias entre los trabajadores”. Es más fácil hacerlo mejor, por lo que se difumina el valor añadido que pueden aportar unos profesionales sobre otros y caen las condiciones de todos. “Los líderes empresariales deben examinar detenidamente cómo adaptarse y si adoptar o no estas tecnologías, ya que la IA amenaza con perturbar indiscriminadamente a los operadores tradicionales y erosionar su ventaja competitiva”, recomiendan las conclusiones de este estudio. Este hallazgo va en línea con los resultados del segundo estudio que midió el impacto de ChatGPT, en este caso en una empresa concreta: Boston Consulting Group. Esta consultora estratégica empresarial es una de las más reputadas del mundo y tiene más de 25.000 empleados. Los investigadores midieron el rendimiento de 753 de ellos (un 7% de su plantilla de consultores individuales) cuando podían apoyarse en la IA y lo compararon con un grupo de control que trabajó de forma tradicional. Usar ChatGPT mejoró la productividad, pero la mejora fue mucho más grande en los consultores con menos habilidades. “Los sujetos que estaban por debajo del umbral medio de rendimiento mostraron el aumento más sustancial en el rendimiento, un 43%, en comparación con los sujetos con la mitad superior, que lo hicieron un 17%”, afirma esta investigación, firmada por investigadores de la Universidad de Harvard y por personal de la consultora. Más productivos pero con más errores La mayor productividad de los consultores tuvo una cara B cuando los investigadores les propusieron tareas que no estaban abiertas a la interpretación, sino una sola respuesta correcta. Lo que se evidenció fue “un notable descenso del rendimiento entre los grupos que utilizaron IA al compararlos con el grupo de control. Los sujetos del grupo de control acertaron en este ejercicio aproximadamente el 84,5% de las veces, mientras que los que trabajaron con IA obtuvieron puntuaciones de entre el 60% y el 70%”. Un descenso medio del 19%. Esta falla es una consecuencia del funcionamiento de las inteligencias artificiales como ChatGPT, que forman su discurso a partir del análisis probabilístico de la palabra que aparece a continuación de otra en un determinado discurso. Un mecanismo muy efectivo para generar textos con sentido pero que se está mostrando inefectivo a la hora de dar respuestas exactas a preguntas concretas. Esto puede ocurrir en problemas matemáticos pero también si el usuario solicita una cita histórica determinada de un personaje relevante, por ejemplo. Automatización de tareas, no tanto de profesiones Los resultados de estos estudios van en línea con los posicionamientos de otros expertos, que apuntan a que las IA generativas no serán una tecnología automatizadora. “Estas herramientas son asistentes, pueden automatizar tareas concretas pero no todo el trabajo”, apunta Enrique Dans, profesor de Innovación de IE Business School. “Lo que sí vamos a ver es una sustitución del profesional que no sabe utilizar estos algoritmos por aquellos que sí, sobre todo si tienen formación específica sobre ellos”, apunta el profesor: “Incluso en profesiones de muy alta cualificación como las de los consultores vemos que supone una gran diferencia”, añade. La evolución clave, no obstante, podría llegar en los próximos meses de la mano de las inteligencias artificiales de entrenamiento personalizado. Estas permiten al usuario final introducir variables propias que modifican el resultado final que ofrecen los algoritmos, enseñándoles por ejemplo informes o textos anteriores de la empresa para que adecue sus respuestas a ellos. OpenAI presentó una herramienta con esta función llamada GPTs la pasada semana. “Esto va a marcar una enorme diferencia entre las organizaciones que utilicen un ‘ChatGPT estándar’ y aquellas con los recursos y la estructura para adiestrar sus propios modelos”, avanza Dans, “las ganancias de productividad para esas empresas pueden ser enormes”.

Central Termoeléctrica Brigadier López, de Santa Fe, se renueva con un ciclo más eficiente y usará gas de Vaca Muerta

La empresa de generación eléctrica Central Puerto avanza con las obras para el cierre en Ciclo Combinado de la Central Termoeléctrica de Brigadier López, ubicada en el parque industrial Sauce Viejo de la provincia de Santa Fe, con una inversión de u$s 150 millones. La importancia de esta obra radica no sólo en la eficiencia que alcanzará el nuevo ciclo combinado de producción de electricidad, que estará entre los más eficientes del país, sino también el hecho de que podrá, por su ubicación, utilizar el gas provisto desde Vaca Muerta. Esto se dará a partir de la vinculación del nuevo gasoducto y la concreción del nuevo tramo que se encuentra en proceso de licitación y la reversión del gasoducto norte, lo que permitirá que la Central Térmica Brigadier López pueda utilizar y ser despachada con gas natural la mayor parte del tiempo. La central, ubicada a 22 kilómetros de la capital santafesina, dispone de una turbina de Gas marca Siemens SGT5-4000 F de combustible dual con una potencia total nominal de 292 Mw. Con la obra de cierre de ciclo combinado concluida, pasará a sumar una potencia adicional de 140 Mw. De esta manera, la central térmica contará con una potencia total de 432 Mw, lo que implicará cubrir el abastecimiento de más de 300.000 hogares de todo el país, inyectando potencia al sistema interconectado mediante la vinculación en 132kV. En una primera instancia, la central facilitará la creación de más de 300 empleos (entre trabajadores directos e indirectos), buscando ampliar esa capacidad para que, día a día, que más proveedores locales desarrollen su rubro, dando solución a los requerimientos de la misma. Al respecto, Fernando Bonnet, gerente general de Central Puerto, dijo sobre la relevancia de la obra: «No solo es importante por la eficiencia que alcanzará el nuevo ciclo combinado, sino que por su ubicación, que podrá utilizar el gas provisto desde Vaca Muerta, permitiendo que la Central térmica Brigadier López pueda ser despachada con gas natural la mayor parte del tiempo». «Estamos muy orgullosos de poder lanzar el inicio de este proyecto que significa una optimización de los recursos, y un nuevo crecimiento y diversificación de la matriz energética de la compañía y con el consumo predominante de gas natural aportar también a la transición energética», afirmó Bonnet. En junio de 2019, la empresa estatal Integración Energética Argentina (Ex Enarsa) suscribió el contrato de transferencia a la compañía Central Puerto de la CT Brigadier López, por 326 millones de dólares, a lo que se debía sumar el costo de las obras pendientes del cierre de ciclo combinado. La primera etapa de la obra que consistió en la construcción del ciclo abierto había sido licitada y financiada por el Estado Nacional en 2009 e inaugurada en 2014, pero el cambio de gestión de Gobierno derivó en su traspaso a manos privadas. Central Puerto es la mayor generadora eléctrica del país, cuenta con 14 plantas de diversas tecnologías, más de 1.000 empleados y alcanza un 16,2% de market share con una capacidad instalada de generación de 7.100 Mw.

China, EE.UU. e India son responsables del 52% de las emisiones de carbono

El Atlas Global del Carbono publicó un informe sobre las emisiones mundiales de dióxido de carbono de 2021 y demostró que más de la mitad fueron generadas solo por tres países: China, representando el 30,9%; Estados Unidos, con el 13,5%; e India, con el 7,3%. Juntas, estas tres naciones son responsables del 52% de las emisiones mundiales de CO₂. El resto de los países que completan la lista de los diez más contaminantes son, en orden, Rusia, Japón, Irán, Alemania, Arabia Saudita, Indonesia y Corea del Sur. Vale aclarar que los tres principales emisores son también los países más poblados del mundo, pero en términos de emisiones per cápita (toneladas métricas), Estados Unidos lidera la tabla con un 15,32 contra 7,44 de China y 1,89 de India. Según Visual Capitalist, que además armó una infografía muy clara sobre el estudio, todos estos grandes contribuyentes de carbono a la atmósfera se fijaron objetivos claros de reducción de emisiones para las próximas décadas. Estados Unidos se comprometió a tener cero emisiones netas para 2050, China aspira a la neutralidad de carbono para 2060 e India se fijó el mismo objetivo para 2070. Sin embargo, desde la Revolución Industrial, Estados Unidos ha sido el mayor emisor de carbono del planeta por la quema de combustibles fósiles y actividades industriales. A pesar de los compromisos asumidos es cierto que, a medida que se desarrollan, los países suelen aumentar sus emisiones, y es por eso que la Agencia Internacional de Energía (AIE) pronostica que la participación de India en las emisiones globales podría aumentar al 10% en 2030. Las grandes emisiones de carbono provienen principalmente de la quema de combustibles fósiles y son las encargadas de intensificar el efecto invernadero de las últimas décadas y causar el calentamiento global. La frecuencia y la intensidad de los fenómenos meteorológicos extremos como tormentas, sequías e inundaciones continúa en ascenso y también se estima que el 2023 podría terminar siendo el año más caluroso en la historia. El 30 de noviembre comenzará en Dubai la Conferencia de las Naciones Unidas sobre el Cambio Climático de 2023 -COP28- y según Amnistía Internacional es urgente un acuerdo que ponga fin a la producción de combustibles fósiles para evitar una catástrofe climática global y una crisis de derechos humanos sin precedentes. Solo en 2020, la contaminación del aire directamente relacionada con la quema de combustibles fósiles contribuyó a la muerte de 1,2 millones de personas. (Por Natalia Sarramone).

Identifican cuatro nuevas especies de abejas en la Argentina

0
  • Son originarias de nuestro país, Chile y Uruguay, pertenecen al género Megachile y, hasta el presente, la ciencia desconocía su identidad. Un estudio de la UBA las encontró, identificó y les puso nombres.
  • Brindan el importante servicio ecosistémico de polinización.
En la Argentina existen casi 1.200 especies de abejas y todavía es posible que esa rica diversidad siga aumentando. Como parte de un relevamiento de abejas en varias provincias, investigadores de la Facultad de Agronomía de la UBA (FAUBA) y del Museo Argentino de Ciencias Naturales ‘Bernardino Rivadavia’ descubrieron cuatro nuevas especies del subgénero Chrysosarus, perteneciente al género Megachile. Se distinguen por tener bordes filosos en las mandíbulas, una característica muy poco frecuente en ese subgénero. El estudio amplía el conocimiento sobre las abejas en nuestro país y destaca la importancia de conservar y fomentar las poblaciones silvestres de estos insectos como polinizadores de cultivos. “En este trabajo nos enfocamos en un grupo de abejas del subgénero Chrysosarus, incluido en el gran género Megachile. Algo que caracteriza a la mayoría de las hembras dentro de Chrysosarus es que no poseen filos cortantes entre algunos dientes de sus mandíbulas. Nosotros, analizando distintas especies de la Argentina, encontramos ocho que sí tenían esos filos. Las estudiamos y descubrimos que cuatro de ellas son nuevas para la ciencia”, comentó Juan Pablo Torretta, docente de la cátedra de Botánica General de la FAUBA. Juan Pablo, quien también es investigador del CONICET, denominó a las flamantes especies Megachile basimacula, M. platensis, M. simpliciclypeata y M. sancticlaudii. Además de poseer los mencionados bordes cortantes, todas comparten rasgos como ser solitarias y construir sus nidos con pétalos y barro. “A cada celdilla de cría le dan forma de ‘barrilito’, y para eso, las hembras recortan trocitos ovalados y redondeados de pétalos usando esos bordes filosos en las mandíbulas”. Torretta publicó la descripción de las abejas en la Revista del Museo Argentino de Ciencias Naturales, en coautoría con Arturo Roig-Alsina, profesional de esa institución. “Además de estos nuevos insectos, otra de las abejas tratadas en el trabajo es una especie descripta hace más de 100 años por un señor llamado Vachal, y que nunca se había vuelto a mencionar en la literatura. Al no poder identificarla bien, pedimos información al Museo de Historia Natural de París y terminó siendo la abeja de Vachal. Ahora sabemos que se llama Megachile interjecta”, sostuvo el docente, y añadió que en nuestro país es común hallar especies a las que no se las puede determinar. Un nombre que sabe a campo Juan Pablo Torretta afirmó que “cazar abejas es tan simple como poner una trampa, tomar una red y capturarlas. Lo difícil es después llegar a saber cómo se llaman, ya que identificarlas lleva tiempo y a menudo se necesita consultar a especialistas. Incluso, hay veces que, ahondando, nos damos cuenta de que se trata de especies desconocidas, y entonces debemos describirlas con mucho detalle y ponerles un nombre”. El docente de la FAUBA aclaró que el nombre que se le pone a una nueva especie solo depende de la voluntad del investigador o la investigadora. “Si bien existe un código de nomenclatura en el que uno debe buscar las palabras correctas —ya que los nombres científicos son en latín—, uno le puede poner lo que quiera”. En este sentido, Torretta contó en qué se basó para denominar a una de las cuatro especies que descubrió. “Hace como 20 años que con mi grupo llevamos adelante proyectos de investigación en la Estancia San Claudio, un campo de la Facultad ubicado en Carlos Casares, en la provincia de Buenos Aires. Como agradecimiento a esta estancia, a una de las especies nuevas la llamamos Megachile sancticlaudii”. Potenciar a las abejas silvestres “Entre otras cosas, en nuestro grupo estudiamos a las abejas en agroecosistemas: cuáles hay, cómo son sus ciclos de vida, qué comen y con qué alimentan a sus crías; es decir, buscamos saber qué recursos necesitan. En esta línea, una idea que tenemos es encontrar o manejar especies silvestres que sirvan como polinizadoras de algún cultivo o de plantas en general”, comentó Juan Pablo. Y añadió: “En general, los cultivos de la Región Pampeana no dependen de polinizadores, y si dependen de alguno, es de abejas manejadas, como la abeja de la miel. Sin embargo, en San Claudio encontramos otra especie de Megachile que utiliza principalmente polen de leguminosas. La estamos estudiando y creemos que podría llegar a ser una buena polinizadora de alfalfa”. “En nuestro país, históricamente se usó a Megachile rotundata para ese fin, pero es una especie exótica, y está prohibido importarla. A mi entender, esta prohibición es correcta ya que introducir abejas exóticas es una de las causas por las que disminuye la diversidad de abejas nativas en distintas partes del mundo”, recalcó el investigador. Entonces, ¿por qué no mejorar las condiciones para que las abejas nativas crezcan?, se preguntó Juan Pablo. “Manejarlas a veces es complejo. Una alternativa para favorecerlas sería poner plantas leguminosas nativas en los bordes de los cultivos para aumentar las poblaciones de insectos silvestres. De esta manera se podría potenciar el servicio ecosistémico de polinización cuando haya alfalfa florecida en los lotes”. El investigador subrayó que además de incluir plantas silvestres en los bordes de los cultivos, otra práctica para mejorar este servicio sería colocar nidos artificiales para abejas silvestres. Al mejorar las condiciones de nidificación, sus poblaciones podrían aumentar. “Resumiendo, creo que es clave favorecer el crecimiento en tamaño de las poblaciones silvestres de abejas. Y para eso hay que cambiar la forma de hacer agricultura: implementar rotaciones diversas, enriquecer la flora de los bordes de cultivos —especialmente la nativa— y usar menos pesticidas, entre otras cosas. La cuestión es mejorar la calidad de vida de las abejas y también la nuestra. Me parece que estamos en un momento ‘pivot’, y tenemos que pensar de acá para adelante nuevas y mejores alternativas para todos”, cerró. (Pablo A. Roset / SLT-FAUBA).

Monitoreo automático de la contaminación en la Cuenca Matanza Riachuelo

La Autoridad de Cuenca Matanza Riachuelo (ACUMAR) desarrolló un sistema de monitoreo automático para efluentes industriales, con el cual podrán mantener un control permanente de los contaminantes ambientales con el objetivo de reducirlos e iniciar nuevas acciones de remediación. Se trata de nueve equipos para uso exclusivo, fabricados íntegramente por proveedores nacionales. Seis de ellos están ubicados en locaciones fijas mientras que los tres restantes son móviles, con los que buscarán monitorear más del 90% de los vuelcos líquidos de origen industrial de la cuenca, entre lo que resta de este año y el próximo. “Antes, el monitoreo industrial se realizaba de manera manual”, recuerda Matías Parra Visentin, Coordinador de Ciencia y Tecnología de ACUMAR, y aclara que estos equipos fueron pensados para controlar a los que consideran grandes aportantes de efluentes, que corresponden principalmente a empresas alimenticias, curtiempres, mataderos y pinturerías, entre otras. Según registros de ACUMAR, a lo largo de los 64 kilómetros que componen la cuenca hay más de 4400 industrias (el 20% de ellas en la zona de La Matanza), entre las cuales hay 49 establecimientos industriales, comerciales y conjuntos habitacionales que son considerados como “grandes aportantes de efluentes”, ya que son responsables del 80% de carga de contaminación de tipo orgánica vertida por el total de los establecimientos al cuerpo de agua receptor. Entre ellas, hay un primer grupo de 19 establecimientos que son los que más aportan, que estan invirtiendo más de 40 millones de dólares, en 17 obras privadas de adecuación ambiental de infraestructura. De ese modo, se espera que a mediados del año 2024 se logren reducir alrededor de 1400 kilos de desperdicios diarios.
“Antes, el monitoreo industrial se realizaba de manera manual”, recuerda Matías Parra Visentin, coordinador de Ciencia y Tecnología de ACUMAR.
Para desarrollar los nuevos equipos de monitoreo, ACUMAR estableció acuerdos con diversos actores del sector públicos y privado. Desde el sector público, por ejemplo, la Agencia Nacional de Promoción de la Investigación, el Desarrollo Tecnológico y la Innovación (I+D+i) les otorgó un financiamiento FONTAR de más de $31 millones. Además, recurrieron a la Universidad Nacional Guillermo Brown (UnaB), que los acompañó en el desarrollo del sistema para la toma, muestreo y procesamiento de los datos. En cuanto al sector privado, establecieron acuerdos con la Asociación de Industriales Metalúrgicos de la República Argentina (ADIMRA), que conformó un Centro Tecnológico Metalúrgico (CETEM) junto con la Universida Nacional Arturo Jaureche (UNAJ) y la Universidad Nacional de San Martín (UNSAM); y la Cámara Argentina de Industrias Electrónicas, Electromecánicas y Luminotécnicas (CADIEEL), en un contexto de tecnologías ambientales 4.0, para mejorar el control industrial en las empresas de la cuenca. “En vez de comprar equipos armados y hechos en el exterior, con este proyecto destinamos ese mismo dinero en empresas nacionales. De ese modo, no solo obtuvimos una solución a nuestros requerimientos, también desarrollamos tecnologías y técnicos locales”, destacó Bruno De Alto, director general Ambiental de ACUMAR. Al respecto, el especialista aclaró que para fabricar los equipos se formó un consorcio de cooperación empresaria denominado Ecosensar, que surgió de la unión de tres pymes nacionales (POSTHAC, ADRA y ComSi), a las que contactaron a través de la cámara empresaria, CADIEEL. “Ecosensar es un ejempolo de cómo el Estado puede traccionar la generación de empresas”, dijo Parra Visentín. Los equipos móviles pueden ser instalados en cualquier cámara de vuelco de efluentes líquidos. Contienen sensores que permiten controlar cinco variables: oxígeno disuelto, caudal, temperatura, acidez (pH) y conductividad. Lo hacen en tiempo real y envian los datos a un sistema de gestión online por vía remota. Además, cada unidad cuenta con un dispositivo que permiten tomar y almacenar hasta 24 muestras refrigeradas, para un posterior análisis en laboratorio. Almacén de datos En conjunto, este sistema de monitoreo continuo mide caudal, pH, DBO. temperatura y conductividad. Está hecho de manera on line y los datos son observados, registrados y controlados desde el Centro Integral de Monitoreo y Control Ambiental (CIMCA), que ya está funcionando en la sede La Boca de ACUMAR. El CIMCA ha sido desarrollado para fortalecer el sistema de monitoreo y gestión de información, a través herramientas que incorporan la ciencia de datos para el diseño, la instalación y conexión de un conjunto de equipos y procesos para la recepción, registro, integración, almacenamiento, análisis y la visualización de los datos generados por los sistemas de monitoreo e imágenes que posee ACUMAR. “Estamos integrando todos los datos que se están generando, sumado a los históricos que no estaban en línea, para poder buscar y encontrar toda la información a un solo sitio”, explicó Jorge Paredes, analista de Datos en ACUMAR, y agrega que todo este sistema se desarrollo con software libre. Esta tecnología permitirá resignificar la lectura de datos, con la ayuda del uso de algoritmos y vinculaciones que hasta el momento no se estaban realizando ya que la información se obtenía de manera independiente. Además, la cantidad de datos registrados permite que el CIMCA pueda generar series de sucesos, temporales y locales, que a su vez pueden ser vinculados a obras o intervenciones de saneamiento, concretas. La creación del CIMCA fue otro de los grandes proyectos que desarrolló ACUMAR en los últimos años. Para lograrlo, obtuvo un financiamiento del Banco Mundial de alrededor de 3 millones de dólares, y estableció acuerdos con universidades e instituciones públicas del país como la Universidad Tecnológica Nacional y la Universidad Nacional de Almirante Brown.

YPF afirma: la exploración offshore en el Mar Argentino puede ser un «Vaca Muerta II»

El coordinador de presidencia de YPF, Hernán Letcher, aseguró que la exploración offshore en Argentina, con la Cuenca Argentina Norte, puede significar un “Vaca Muerta II” por el potencial económico y productivo para el país, días después de que la Corte Suprema rechazara los planteos de asociaciones ambientalistas que impedían avanzar en este sentido. Durante la Exposición Internacional de la Industria Naval (ESNAV) 2023, en el Centro Costa Salguero, Letcher aseguró que YPF tiene tres grandes proyectos que, en mayor o menor medida, tienen un impacto en este sector productivo. Esos son el del Gas Natural Licuado (GNL), Vaca Muerta Sur y la exploración offshore. “YPF produce 240 mil barriles por día. La cuenca del offshore significaría 200 mil barriles diarios. Y estamos hablando del 30% de la producción de nuestro país. En términos de volúmenes, es posible que sea un Vaca Muerta II”, expresó Letcher. Según el economista significaría “unos 6.500 millones de dólares”. Además, el offshore impactaría sobre otras industrias, como la naval. “Es importante destacar la importancia económica de la industria naval, ya que más del 90% de mercado se hace vía naval. Por eso se necesita reconstruir su marina mercante para que la renta de flete quede y se reinvierta en Argentina”, dijo Alberto Schprejer, vicepresidente del astillero Tandanor, anfitrión de la exposición que reunió a más de 200 empresas, públicas y privadas, del sector. En ese sentido, Pedro Wasiejko, presidente del astillero Río Santiago, sostuvo que “estamos en mejores condiciones que Brasil en el 2001” porque Argentina cuenta con “una plataforma productiva mucho más importante y con más capacidad, por lo que estamos en condiciones de dar respuesta al desafío del offshore”. Durante la ESNAV también se resaltó el uso de energías alternativas, como el Gas Natural Licuado, para consolidar el cambio de matriz energética fluvial y marítima. “Es necesaria una planificación estratégica para el uso de recursos que hoy, más que nunca, son escasos. Y esto debe hacerse con miras a la preservación del medioambiente. Los barcos emiten dióxido de carbono, lo que contribuye al cambio climático. En este marco, la industria naval necesita una nueva revolución de sus sistemas de producción. Construir buques sin emisión de carbono”, explicó Schprejer. La Corte Suprema de Justicia de la Nación rechazó el viernes pasado los planteos de diversas organizaciones ambientalistas contra las actividades de exploración sísmica offshore en el Mar Argentino, a más de 300 kilómetros de la costa de Mar del Plata. Las presentaciones fueron desestimadas con los votos de los jueces Horacio Rosatti, Juan Carlos Maqueda y Carlos Rosenkrantz. El máximo tribunal argumentó que los recursos extraordinarios, cuya denegación origino las quejas, no se dirigen contra una sentencia definitiva o equiparable a tal. El recurso extraordinario de queja a la Corte fue presentado luego del rechazo por parte de la Cámara Federal de Apelaciones de Mar del Plata en diciembre último. Fue interpuesto por la Fundación Greenpeace Argentina, Surfrieder, Asociación de Surf Argentina, Asociación de General Alvarado de Surf, Fundación Patagónica Natural, Asociación Argentina de Abogados Ambientalistas y otras organizaciones civiles. Asimismo, la Corte rechazó, por los mismos motivos, otros dos recursos de ambientalistas autoconvocados y la de un particular (Rubén Oscar Godoy).

Se realizo el Congreso de Pampa Azul en Mar del Plata. Una iniciativa para un pais maritimo y bicontinental

0
El presidente del Instituto Nacional del Agua (INA), Juan Carlos Bertoni fue invitado a disertar en el Congreso de la Iniciativa Pampa Azul que se realizó los días 7 y 8 de noviembre en el NH Gran Hotel Provincial en la Ciudad de Mar del Plata. El evento celebró los 10 años dedicados al estudio, conservación y uso sostenible de los recursos marinos y costeros en el Atlántico Sur. Entre las finalidades del Congreso estuvo la presentación del balance y los principales logros alcanzados en el transcurso de esta década, y a su vez plantear su continuidad y el de nuestro país marítimo y bicontinental. En la oportunidad, Bertoni presentó una breve reseña sobre el INA con una síntesis de las capacidades que el Instituto posee para aportar al desarrollo de las Energías Marinas. A continuación, expuso sobre estudios relacionados a energías marinas de tipo undimotriz, es decir a partir de las olas, e hidrocinéticas a partir de la velocidad del agua y de las corrientes marinas. Para finalizar, el presidente del INA realizó aspectos de una primera aproximación de modelación matemática sobre energía hidrocinética en las Islas de los Estados. La iniciativa Pampa Azul es un programa interinstitucional, científico y estratégico impulsado por el Gobierno argentino y es liderado por el Ministerio de Ciencia, Tecnología e Innovación. Entre sus integrantes reúne a miembros del Consejo de Administración de Pampa Azul, del Comité Interministerial, de los Consejos Asesores Científico y Tecnológico e investigadores integrantes de los Grupos de Trabajo de las Áreas Geográficas Prioritarias de la Iniciativa, así como con la comunidad del sistema nacional de ciencia, tecnología e innovación. Pampa Azul tiene como objetivo el estudio, la conservación y el uso sostenible de los recursos marinos y costeros en el Atlántico Sur. Se creó en 2014 y fue relanzado en 2020, además se encuentra enmarcado dentro de las políticas de desarrollo sustentable y de promoción de la investigación científica y tecnológica del país.
  La convocatoria fue abierta a todo público, asistieron científicos, tecnólogos, docentes, investigadores, estudiantes universitarios y secundarios, funcionarios nacionales, provinciales y municipales, empresarios, asociaciones de la sociedad civil, organizaciones gremiales y público en general. En la apertura del congreso estuvo presente el ministro de Ciencia, Tecnología e Innovación, Daniel Filmus, quién formó parte de la mesa “Pampa Azul: Políticas públicas para transformar al Mar Argentino en un vector de desarrollo” junto con el subsecretario de Coordinación Institucional del Ministerio y Coordinador General de la Iniciativa Pampa Azul, Pablo Nuñez; el Coordinador Ejecutivo de Pampa Azul, Juan Sala; la investigadora del CONICET e integrante del Consejo Asesor Científico de la Iniciativa, Viviana Alder; y con el subsecretario de Ciencia, Tecnología e Innovación del Ministerio de Producción, Ciencia e Innovación Tecnológica de la Provincia de Buenos Aires, Federico Agüero. En el segundo día en el Panel III b: Tecnologías marinas: Capacidades y desafíos para los próximos 10 años participó el presidente del Instituto Nacional del Agua (INA), Juan Carlos Betoni, en compañía del director Técnico del Área de Micro y Nanotecnología del Instituto Nacional de Tecnología Industrial (INTI), Alex Lozano; el jefe del Laboratorio de Energías Alternativas de Universidad Tecnológica Nacional (UTN), Pablo Haim; de Crux Marine Aitor García; y de QM y Cluster de Energía de Mar del Plata Marcelo Guiscardo. En el lugar hubo espacios de presentación de póster asociados a las investigaciones y desarrollos tecnológicos de los Grupos de Trabajo de las Áreas Geográficas Prioritarias y de los Proyectos de Investigación y Desarrollo Tecnológico (PIDT) y demás estrategias financiados por la Iniciativa Pampa Azul.

Se canceló en EE.UU. el proyecto NuScale, el competidor más publicitado del CAREM

El plan para el primer reactor nuclear estadounidense a pequeña escala fue emocionante, ambicioso e inusual desde el principio. En 2015, un grupo de empresas de servicios públicos de ciudades y condados de la región de las Montañas del Oeste anunciaron que apostaban por una nueva frontera de la tecnología nuclear: una versión en miniatura de una central convencional denominada «reactor modular pequeño» (SMR, por sus siglas en inglés). Sus defensores decían que el diseño, de sólo 9 pies de diámetro y 65 pies de altura, estaba a punto de resucitar la industria nuclear estadounidense, que sólo ha entregado dos reactores terminados este siglo. Se suponía que iba a demostrar el sueño de que los diseños modulares y más pequeños pueden abaratar la división de átomos para hervir agua e impulsar turbinas con vapor. Pero primero había que construir ese reactor, el modelo Voygr diseñado por una empresa emergente llamada NuScale. Estaba previsto que una central de 462 megavatios y seis reactores comenzara a construirse en 2026 y produjera energía a finales de la década. El miércoles, NuScale y sus patrocinadores cancelaron la multimillonaria planta de Idaho Falls. Dijeron que ya no creían que la primera central de su clase, conocida como Proyecto de Energía Libre de Carbono (CFPP), fuera capaz de captar suficientes clientes adicionales para comprar su energía. Muchas de las pequeñas empresas de servicios públicos que suscribieron el proyecto pionero, miembros de un grupo llamado Utah Associated Municipal Power Systems (UAMPS), vieron en la pequeña central nuclear una posible solución a la presión para reducir sus emisiones de carbono. El Departamento de Energía, que iba a albergar la central en el Laboratorio Nacional de Idaho, concedió 1.400 millones de dólares al proyecto a lo largo de 10 años. Pero, como informó WIRED en febrero, las empresas de servicios públicos que respaldaban la central se asustaron a finales del año pasado por un aumento del 50% en los costes previstos para el proyecto, incluso después de tener en cuenta los fondos sustanciales de la Ley de Reducción de la Inflación. Las posibilidades de supervivencia de los reactores de Idaho Falls empezaron a disminuir. En aquel momento, los compromisos de compra de la futura potencia del reactor cubrían menos del 25% de su producción. La UAMPS se fijó como plazo final de año elevar esa cifra al 80% mediante la captación de nuevos clientes. Alcanzar esa cifra se consideraba clave para garantizar la viabilidad del proyecto a largo plazo. A medida que el proyecto avanzaba en su planificación y construcción, sus costes se hacían más difíciles de recuperar si la central acababa fracasando, lo que aumentaba los riesgos para los socios.

Regreso atómico

El mes pasado, los funcionarios locales regresaron a sus comunidades tras un retiro de la UAMPS con el mensaje tranquilizador de que el proyecto de Idaho Falls iba por buen camino para conseguir los nuevos patrocinadores que necesitaba, según las reuniones locales revisadas por WIRED. Esto parecía ser una buena noticia en lugares como Los Álamos (Nuevo México), donde esta primavera un funcionario describió el proyecto como un «regreso a casa» de la tecnología atómica. El proyecto debía llegar justo a tiempo para ayudar al condado a cumplir su objetivo de descarbonizar su red eléctrica y adaptarse a la jubilación de las anticuadas centrales de combustibles fósiles cercanas. En aquel momento, los vecinos expresaron su preocupación por dónde encontrarían energía limpia y constante si la primera central de su clase desaparecía, dada la limitada capacidad de conexión a nuevos proyectos eólicos y solares en la región. Ahora que el proyecto ha muerto, los escépticos del SMR dicen que los municipios deberían encontrar esas fuentes de energía más limpias y centrarse en tecnologías probadas. «Una de las historias que le han contado a la gente es que el SMR iba a ser mucho más barato que la energía nuclear a gran escala», dijo a WIRED el mes pasado David Schlissel, analista del Instituto de Economía Energética y Análisis Fiscal, una organización sin ánimo de lucro. «No es cierto». La portavoz de UAMPS, Jessica Stewart, dijo a WIRED que el grupo de servicios públicos ampliaría sus inversiones en un importante proyecto de parque eólico y buscaría otros contratos para proyectos geotérmicos, solares, de baterías y de gas natural.

¿Fracaso exitoso?

En una llamada trimestral con inversores celebrada el miércoles, el consejero delegado de NuScale, John Hopkins, calificó el proyecto de «tremendo éxito» para la empresa, afirmando que los avances logrados con los reguladores federales para su diseño Voygr importaban más que el destino de una central individual. NuScale sigue estando algo por delante de sus competidores que trabajan en centrales nucleares más pequeñas. En 2022, fue la primera en recibir la aprobación de diseño de la Comisión Reguladora Nuclear de EE.UU., aunque un diseño actualizado previsto para sus proyectos iniciales aún requiere aprobación. En la convocatoria de inversores, otros ejecutivos de NuScale promocionaron los planes de la empresa para construir reactores en Rumanía y alimentar centros de datos en Pensilvania y Ohio construidos por Standard Power, una empresa de minería de criptomonedas. NuScale afirma que sigue planeando tener centrales operativas a mediados de la década de 2030. Los proyectos restantes de la empresa fueron cuestionados el mes pasado en un informe publicado por el vendedor en corto Iceberg Research. El grupo expresó dudas sobre la capacidad de Standard Power para gastar cientos de millones de dólares en la tecnología de NuScale, señalando los escasos detalles proporcionados sobre la empresa de criptomoneda y sus patrocinadores financieros. En la llamada del miércoles, NuScale defendió el proyecto, diciendo que esperaba proporcionar más detalles pronto. «Sabemos que los sitios que están desarrollando son sitios reales», dijo Robert Ramsey Hamady, director financiero de NuScale, que se incorporó a la empresa en agosto. En una declaración facilitada a través del portavoz de NuScale, Garrett Poorman, Standard Power negó las acusaciones del informe y afirmó que tenía acceso al capital adecuado. NuScale también publicó su propia respuesta. La empresa afirma que sigue centrada en hacer lo que se propuso: construir un nuevo tipo de reactor y demostrar que puede suministrar energía sin emisiones de carbono y las 24 horas del día a un coste más razonable que sus gigantescos antecesores, que siguen siendo un pilar de la red actual.

Organización Latinoamericana de Energía: Normas para la certificacióno de «Hidrogeno Limpio»

0
En un esfuerzo conjunto por enfrentar el desafío global del cambio climático y avanzar hacia una economía más limpia y sostenible, los ministros y secretarios de Energía de más de 10 países de la región establecieron un sistema de certificación para el hidrógeno limpio y de bajas emisiones y sus derivados en América Latina y el Caribe, denominado «CertHILAC». Esta iniciativa cuenta con el apoyo y auspicio de OLADE (Organización Latinoamericana de Energía)y el Banco Interamericano de Desarrollo (BID). El CertHILAC se centrará en la certificación del hidrógeno limpio y bajas emisiones producido en América Latina y el Caribe, asegurando la trazabilidad del producto y brindando información detallada sobre su origen y tecnología de producción, entre otros atributos clave. Además, se establecerán criterios de sostenibilidad ambiental y social, con especial atención al uso responsable del agua y al respeto por las comunidades locales y los pueblos originarios. Para garantizar la implementación efectiva del CertHILAC, se ha creado un Grupo de Representantes del Sistema, compuesto por dos representantes de cada gobierno, que se encargará de emitir recomendaciones, establecer la gobernanza regional y nacional, y definir los actores del sistema. La Organización Latinoamericana de Energía (OLADE) actuará como ente coordinador del CertHILAC, facilitando la colaboración entre los países y demás actores interesados. El Secretario Ejecutivo de Olade, Andrés Rebolledo destacó la importancia de esta  iniciativa en beneficio del desarrollo sostenible de la región y  refleja el firme compromiso de los países participantes en avanzar hacia una economía del hidrógeno limpia y sostenible. “CertHILAC es una piedra angular para la integración regional y la creación de un mercado de hidrógeno limpio y de bajas emisiones. Con él, establecemos un marco de trabajo conjunto y abrimos puertas a nuevas oportunidades económicas y tecnológicas, asegurando que los beneficios del desarrollo sostenible sean compartidos por todas las personas”, dijo Ariel Yépez, gerente de infraestructura y energía de Uruguay. El CertHILAC no solo beneficiará a los países firmantes, sino que también se convertirá en un estándar regional reconocido internacionalmente, fomentando la cooperación global en el mercado del hidrógeno limpio y de bajas emisiones. Este sistema de certificación, voluntario y adaptable, servirá como herramienta para alcanzar las metas de descarbonización y contribuirá significativamente a un futuro energético más sostenible para América Latina y el Caribe. Esta declaración fue firmada en el marco de la VIII Semana de la Energía desarrollada en Montevideo Uruguay del 6 al 10 de noviembre del 2023.

Homenaje a Alberto Maroto: fundador de la química de reactores y centrales nucleares en la Argentina.

0
Comentario de AgendAR: Maroto y yo ya éramos un poco amigotes. Yo lo visitaba algunas veces en su casa de Belgrano: había salido muy averiado de huesos de la inmovilidad pandémica. Éste es uno de los 6 expertos que en 1985 me transformaron de antinuclear moderado a atómico convencido. Hijo de uno de los grandes galeristas de Baires y gran conocedor del ambiente, organizó el mejor museo de pintura argentina contemporánea, además, con 300 cuadros de grandes maestros donados voluntariamente a la CNEA (Comisión Nacional de Energía Atómica), su «alma mater». Están exhibidos en las paredes del edificio del acelerador de partículas TANDAR, en el Centro Atómico Constituyentes, sobre la General Paz, sin que el país se dé por enterado. Acceso a trasmano pero gratuito y obras muy significativas: olvidate del MALBA, éste es mejor. Antes, como químico de reactores, Maroto le hizo otro regalo equivalente a su alma mater, pero más medible. En los ’80 atajó un episodio de contaminación con resinas del circuito primario de enfriamiento de la central. Paradójicamente, eran las mismas resinas usadas para depurar el primario de productos de corrosión de metales. Un error de diseño de ese subsistema del proveedor canadiense, AECL, que habría dejado fuera de servicio durante años la que sigue siendo la mayor y mejor máquina individual de producción eléctrica del país desde 1984. Cuando en 1985 Maroto me habló por primera vez de su profesión y de su docencia formando nuevos químicos de reactores, en medio del reportaje usó sin pudor ni falsedad alguna la expresión de «pasar a la generación siguiente el fuego sagrado» y trató discretamente de disimular su emoción. Éramos dos perfectos desconocidos entonces, pero tuve por primera vez la sensación de que el Programa Nuclear era una Argentina desconocida, con funcionarios que eran más militantes «pro patria» que funcionarios. Una institución rarísima, con muchos defectos nuestros pero también con todas nuestras virtudes, sólo que muy, muy potenciadas. Yo era también un docente (de literatura) y recién empezaba en periodismo científico, como becario del hoy llamado Instituto Leloir. Desde ambas profesiones, podía entender perfectamente la tranquila vehemencia de aquel hombre por transmitir el fuego sagrado. Era inusitada esa emocionalidad por el país y por el bien público en un científico frente a un extraño, y para peor, periodista. Son cosas que por suerte me sucedieron varias veces en 37 años de carrera, pero ésa fue la primera y la más explícita. En las décadas que siguieron, Maroto y yo nos peleamos bastante por diferencias sobre política nuclear: era cortés y cortante, y muy vehemente. Debe haber sido un tremendo profesor, porque amaba la tarea, que en su caso iba de la química de reactores a la docencia, y de la docencia al arte. Maroto le dio de todo eso a manos llenas eso a nuestro país. Creo que su inmenso museo de pintura contemporánea en un edificio de investigación nuclear resume bien a la CNEA fundacional: lo mejor de lo mejor, en un país que no se da por enterado.

Daniel E. Arias

El Wegovy, además de reducir peso, tiene algunos buenos efectos colaterales

0

EL WEGOVY REDUCE EL PESO Y EL SÍNDROME METABÓLICO, PERO NO HACE MAGIA, AUNQUE CUESTA COMO SI LA HICIERA

Sigue rebotando por los medios la versión demasiado esperanzada de que el semaglutido GLP-1, llamado comercialmente Wegovy, no sólo logra tratar exitosamente el sobrepeso, sino muchas de sus consecuencias (la tríada de hipertensión, enfermedad coronaria y diabetes llamada «síndrome metabólico», e incluso las consecuencias de esas consecuencias, fundamentalmente episodios vasculares letales o discapacitantes.
 
En suma, hoy el mundo cree que el GLP-1 es una droga mágica contra el envejecimiento metabólico y circulatorio, además de un modo caro de recuperar aquella ropa que hace veinte o treinta años que quedó demasiado chica, y no se regaló.
 
El texto que sigue a continuación es una crítica profesional, criteriosa y bastante despiadada de Eric Topol sobre el «trial» a doble ciego de Wegovy financiado por NovoNordisk, la fabricante de Wegovy, y publicado en el New England Journal of Medicine. 
 
Llamada NEJM por el ambiente, ésta una de las tres grandes revistas de medicina clínica del mundo occidental: no publica basura, y tampoco lo hace en este caso. Tanto por número de pacientes como por duración de la investigación clínica, este «doble ciego» debe haber costado carísimo. Pero del mismo modo que una superproducción de Hollywood no es buena si el director y el guionista tampoco lo son, la chequera y el tamaño colosal del grupo estudiado le dan mucha solidez al ensayo de Wegovy, sin curarlo en absoluto de un par de defectos esenciales.
 
Parece que, efectivamente, el Wegovy no previene esas dos cosas inevitables, la muerte o los impuestos, al decir de Benjamin Franklyn. Eso queda más que sugerido por el análisis más superficial del artículo del NEJM que hoy los medios están haciendo circular con gran entusiasmo. 
 
Pasa con cierta frecuencia que una droga nueva o una dieta vieja ocupan en algunos grandes medios, que necesitan ruido y cobran por decibel, el lugar de la fuente de la eterna juventud. Eso sucede todavía con la comida mediterránea o la metformina, un hipoglucemiante muy efectivo en prediabetes, o «insulinorresistencia». Son cosas buenas, sin discusión, pero no mágicas. 
 
Lo realmente mágico de Wegovy no es tanto la «performance» clínica sino el precio: hay que ser mago para pagar el tratamiento.
 
Un examen más duro de los resultados estadísticos a término del experimento y de los criterios de selección de pacientes sugiere alta efectividad del GLP-1 en disminución de infartos y ACVs en población no sólo muy obesa sino vieja y con eventos cardiovasculares previos. Todo el grupo estudiado es, en ambas ramas, de muy alto compromiso clínico.
 
La eficacia del Wegovy en frenar la evolución desde insulinorresistencia a diabetes tipo 2 insulinodependiente también parece alta. El artículo de NEJM no mostró reducción significativa de stroke, o accidente cerebrovascular, como endpoint (objetivo inicial) aislado. Pero eso se manifestó inesperadamente en el resultado compuesto. Bienvenido el hallazgo.
 
Pese a esa honestidad en el análisis de resultados, el estudio deja deliberadamente de lado a los pacientes obesos sin eventos o más jóvenes, que paradójicamente podrían ser el grupo más beneficiado a largo plazo. Releyendo el informe, surge también que el efecto estadístico de ahorro en muertes y accidentes vasculares sólo empieza a manifestarse tras dos años de tratamiento (el experimento duró tres).
 
Aunque la droga causa pérdidas no sólo de tejido graso sino de hueso y músculo (algo peligroso para cualquier mayor de 60), la farmacológica NovoNordisk no ofrece estrategia alguna de «descalce». Es imposible interrumpir el suministro de Wegovy  sin un rápido rebote al peso inicial, con los peligros circulatorios y metabólicos asociados a esos rebotes.
 
Claramente este tipo de pseudohormonas GLP-1 está pensado como drogas vitalicias, y no para intervenciones de corta o media duración. Lo que a U$ 48.000 por año en los EEUU resulta impagable para casi todo paciente particular, y para la mayor parte de los sistemas de salud pública y buena parte de las prepagas.
 
Aunque las estatinas y los hipoglucemiantes no bajan el peso como sí lo hacen las drogas GLP-1, que lo logran en forma dramática, son eficaces en el manejo de hipertensión y estados pre-diabéticos; las dos peores expresiones del síndrome metabólico asociado a obesidad. Y estatinas e hipoglucemiantes resultan mucho más baratos en comparación.
 
En suma, los GLP-1 te alivian de kilos; pero también de bolsillos, de músculos y de huesos, y los efectos protectores contra síndrome metabólico  sólo aparecen tras 2 años de tratamiento continuo. No obstante, se obtiene una performance similar con drogas más estandarizadas y baratas, como las estatinas e hipoglucemiantes. Con la aclaración de que curan síntomas peligrosos, pero síntomas al fin, porque ni estatinas ni hipoglucemiantes te hacen bajar de peso, si ésa es la madre del borrego.
 
Además, faltaría hacer un estudio similar sobre poblaciones menos comprometidas clínicamente: obesos juveniles y de mediana edad, todavía libres de trastornos y de eventos. Que claramente, van a ser el grupo de mayor demanda por su mucho mayor expectativa de vida, y porque lo compone gente en edad laboral, generalmente con mejor cobertura de salud que los jubilados.
 
Agradecemos al Dr. Pedro Politi, oncólogo y farmacólogo argentino, por suministrarnos la crítica de Topol que sigue a continuación, y sus explicaciones sobre asuntos regulatorios y de licenciamiento.
 
Daniel E. Arias 
ooooo
LA RESPUESTA DE ERIC TOPOL AL ARTÍCULO DEL NEJM SOBRE WEGOVY La semana pasada se presentó ante la American Heart Association, con publicación simultánea en el New England Journal of Medicine (NEJM), un gigantesco ensayo de 17.600 pacientes seguidos durante 3 años. En un doble ciego inobjetable, la mitad del grupo recibió aleatoriamente un placebo y la otra el todavía novedoso y muy efectivo reductor de peso Wegovy, de NovoNordisk. Es un bloqueante del receptor del péptido-1, similar al glucagon, llamado semeglútido GLP-1. Peso aparte, aparecieron efectos colaterales beneficiosos para la circulación y el metabolismo. Esperábamos con impaciencia conocer los resultados reales desde que la empresa patrocinadora (Novo Nordisk) emitió un comunicado de prensa en agosto en el que proclamaba una reducción relativa del 20% de las muertes cardiovasculares, infartos de miocardio o accidentes cerebrovasculares, el principal criterio de valoración del ensayo. Los participantes en el ensayo presentaban un riesgo muy elevado de sufrir eventos cardiovasculares posteriores, ya que el 68% había sufrido un infarto de miocardio (el 82% padecía una enfermedad arterial coronaria) y el resto había sufrido un ictus o una enfermedad arterial periférica o una combinación de estos criterios de entrada. Aunque se requería un índice de masa corporal o IMC mayor de 27 kg/estatura al cuadrado para la inscripción, el IMC medio de los inscritos era mayor de 33 kg/estatura al cuadrado; con un 70% de obesos indiscutibles. Había una falta de diversidad etnocultural, con un 84% de blancos y menos de un 4% de negros. Los participantes no eran diabéticos al inicio del estudio, pero dos tercios tenían una resistencia a la insulina o HbA1c igual o superior al 5,7%, lo que es anormal y suele denominarse prediabetes. La edad media al inicio del estudio era de 62 años (45 años o más era un criterio de admisión). La media de LDL, o colesterol de baja masa, el dañino, en el momento del ingreso era de 78 mg/dl, lo que no es bueno en una población de tan alto riesgo. El ensayo se estableció para detectar una reducción del 17% en el objetivo primario con una potencia del 90%. Hubo un análisis intermedio en julio de 2022 con 831 eventos que llevó a la continuación del ensayo hasta su final, con un mínimo de 1225 eventos; el ensayo finalizó con 1270 eventos totales que superaban ese objetivo.

Los principales resultados positivos

  • El semaglútido redujo en un 20% los acontecimientos graves en esta población de alto riesgo. Ëste es el primer fármaco dirigido a la obesidad que ha logrado este objetivo.
  • El seguimiento de 40 meses es el más largo realizado hasta la fecha en un ensayo a gran escala de semaglútido contra placebo, lo que confirma en cierta medida la seguridad de esta duración del tratamiento.
  • Hubo una reducción bastante consistente de más o menos el 20% en los diferentes criterios de valoración, aunque el tiempo observado para la divergencia de las curvas de muerte cardiovascular o muerte por cualquier otra causa (gráficos a continuación) se retrasó más de 3 años, en comparación con la separación temprana de las curvas para los criterios de valoración no mortales (principalmente reducción del infarto de miocardio).
Éste es el análisis del tiempo transcurrido hasta el acontecimiento, que muestra de nuevo la reducción del infarto de miocardio no mortal, mientras que el ictus no mortal no se redujo significativamente (una reducción relativa del 7%). La línea vertical amarilla es la línea de identidad (cociente de riesgos de 1,0); si los intervalos de confianza del 95% la cruzan, ese resultado específico no es estadísticamente significativo.
  • Como cabía esperar, la reducción de la progresión a diabetes fue sorprendente: sólo el 3,5% progresó a HbA1c > 6,5% en el grupo de semaglutida frente al 12% en el grupo placebo, lo que supone una reducción del 73%. Junto a esto, se produjo una reducción bastante pronunciada del marcador inflamatorio proteína C reactiva, que bajó un 39% frente a un 3%, en el caso del semaglútido contra placebo, respectivamente.
  • Los resultados fueron independientes de la categoría de sobrepeso/obesidad al inicio del estudio, como se observa en este análisis de subgrupos para el objetivo primario. De hecho, los subgrupos con menos de 30 y más de 30-35 de índice de masa corporal IMC demostraron la mayor reducción relativa.

Resultados no tan buenos

  • La reducción absoluta del criterio de valoración primario es de sólo 1,5 por cada 100 personas tratadas, y las personas del ensayo representan una cohorte de muy alto riesgo. Además, tuvieron que ser tratados durante más de 3 años para obtener ese pequeño beneficio absoluto. Téngase en cuenta que el precio de Wegovy en Estados Unidos es de 1.349 dólares al mes.
  • La pérdida de peso corporal conseguida fue sólo del 8,5%. Como comenté el pasado diciembre, esto es considerablemente menos de lo que se observó en los ensayos aleatorizados anteriores de Wegovy y Mounjaro, más pequeños y con menos tiempo de seguimiento (<1,5 años).
  • Queda por ver si una pérdida de peso mayor reduciría aún más los episodios cardiovasculares, y en qué medida la pérdida de peso en sí afectaba a la mejora de los resultados o se debía en parte a otros efectos del fármaco, como la reducción de la inflamación.
Ensayos aleatorizados previos de GLP-1 para la reducción de la pérdida de peso
  • No existe una estrategia de salida. Más allá de la pérdida de peso, sabemos que las personas que toman estos fármacos pierden masa muscular (no medida en el ensayo) y densidad ósea, y las empresas que comercializan estos fármacos no han hecho nada para evaluar las estrategias de retirada y suspensión de los fármacos para evitar estos efectos adversos, sin olvidar otros que pueden aparecer tras una exposición prolongada (varios años).

Resumen

Este ensayo aleatorizado del fármaco GLP-1, bien realizado, es importante para documentar la reducción de los eventos cardiovasculares en una cohorte de alto riesgo. Pero la reducción absoluta (1,5 por cada 100 tratados durante >3 años) es bastante baja, sobre todo teniendo en cuenta el alto riesgo de la población y el elevado coste del fármaco. Pagar de bolsillo propio el precio completo de 1.349 dólares al mes durante 36 meses equivale a más de 48.500 dólares. Es probable que las aseguradoras, y Medicare, revisen su cobertura basándose en el ensayo para cubrir el fármaco para pacientes de alto riesgo que cumplan los criterios de entrada del ensayo, pero eso representará una carga económica muy grande para cubrir el coste del fármaco. La aprobación por la FDA de Zepbound (tirzepatide, igual que Mounjaro pero con otro nombre) esta semana, con un coste de 1.060 dólares, parece un poco mejor. Es probable que el acceso a estos fármacos agrave las desigualdades, lo que se suma a la falta de diversidad de las personas evaluadas en el ensayo. Se necesita mucho más trabajo para resolver la cuestión del beneficio del GLP-1 para las personas obesas pero sin infartos previos o con alto riesgo de eventos cardiovasculares; aún no sabemos nada al respecto. Es posible que los fármacos GLP-1 más potentes y los agonistas de triple receptor consigan un mayor grado de pérdida de peso y amplíen el beneficio a las personas de menor riesgo en el futuro. Todo eso está por ver, y un beneficio absoluto de 1,5 por cada 100 personas tratadas no es nada del otro mundo. Para mí, la mayor preocupación es que estas empresas parecen estar promoviendo una terapia vitalicia, como es evidente por su nula voluntad de sacar a la gente de los medicamentos sin volver a tomarlos, tanto por el aumento de peso consiguiente como por el riesgo de resultados adversos. Esto es claramente inaceptable y se necesita una mayor presión para que todas las empresas que fabrican este tipo de fármacos prueben y validen estrategias de salida duraderas y seguras.

.ERIC TOPOL

Dia Mundial de la Diabetes. La situacion de la Argentina y otros paises de America

0
Según un informe de la Organización Panamericana de la Salud (OPS), la región de América Latina enfrenta un acceso limitado a tecnologías innovadoras esenciales para el manejo efectivo de la diabetes. Solo 12 países cuentan con seis tecnologías básicas necesarias, como equipos para medir la glucosa en sangre, pruebas para el diagnóstico temprano de complicaciones y tiras reactivas de orina para el análisis de glucosa y cetonas1.
Según la OPS, solo el 30% de los países latinoamericanos pueden manejarla efectivamente. En el marco del Día Mundial de la Diabetes, que se conmemora cada 14 de noviembre, los especialistas resaltan la importancia de obtener mayor acceso, lo que podría mejorar la calidad de vida de aquellos que padecen la enfermedad.
En Argentina, según la última encuesta nacional de factores de riesgo para enfermedades no transmisibles realizada en 2018, se estima que hay alrededor de 450.000 personas con diabetes tipo 1 en el país. Este tipo es hereditario, y se diagnostica mayormente en niños y jóvenes. Al mismo tiempo, es menos frecuente que la diabetes tipo 2, ya que representa entre el 5% y el 10% de los casos.
De acuerdo con los expertos, la DM1 presenta un alto índice de subdiagnóstico debido al desconocimiento de la población, la limitada cantidad de profesionales de la salud especializados en el área y la escasez de recursos dedicados a la detección y diagnóstico. Esta carencia lleva directamente con una tasa de mortalidad más elevada, por lo que su diagnóstico es de suma importancia.
Ante este panorama, los especialistas explican que existen soluciones tecnológicas avanzadas disponibles para el tratamiento de la DM1. Entre ellas, se encuentran los sistemas de administración automatizada de insulina, que demostraron cómo reducen las complicaciones y permiten que hasta el 90% de los pacientes alcancen el control óptimo de glucosa recomendado. De acuerdo con el Dr. Segundo Seclén, presidente de la Asociación Latinoamericana de Diabetes (ALAD), el manejo adecuado es crucial, ya que la DM1 puede ocasionar daño cerebral funcional, afectar el coeficiente intelectual debido a las hipoglucemias y, por ende, disminuir la esperanza de vida y aumentar la mortalidad.

La falta de tecnología en América Latina

En Argentina, la Ley Nacional de Diabetes garantiza el acceso a servicios esenciales para mejorar el control glucémico y reducir complicaciones, incluyendo insulinas análogas o bombas de insulina. Sin embargo, la escasez de suministros médicos y la inestabilidad económica afectan el acceso a estas tecnologías. «Los principales desafíos son la accesibilidad a las nuevas tecnologías y el costo que conlleva la no cobertura o cobertura parcial de las mismas. Esto genera un gran desgaste en el sistema de salud, en los médicos y, sobre todo, en los pacientes”, explicó Rodrigo Carnero, miembro de la Sociedad Argentina de Diabetes Capitulo Córdoba. En Chile, la Ley Ricarte Soto proporciona protección financiera a pacientes con condiciones específicas de salud, como enfermedades oncológicas, inmunológicas, raras o poco frecuentes, para el diagnóstico y tratamiento de alto costo. Esta ley contempla el acceso a terapias innovadoras, incluyendo insulinas análogas, sistemas de administración automatizada de insulina y dispositivos de monitoreo continuo de glucosa, como las bombas de insulina, que permiten un control y tratamiento más preciso y efectivo al suministrar la insulina de forma dinámica, ajustándose a las necesidades del organismo de la persona que padece esta enfermedad.
Al mismo tiempo, en Colombia, el acceso a tratamientos innovadores como la insulina análoga y los sistemas de administración automatizada de insulina está contemplado tanto en el régimen contributivo como en el régimen subsidiado de salud. Esto facilita el control de la enfermedad y evita complicaciones a corto y mediano plazo que podrían representar mayores costos para pacientes, familiares y entidades de salud. A pesar de estos avances, todavía existen barreras que afectan a los pacientes para lograr un control adecuado de esta patología. “Aunque existen facilidades para acceder a tratamientos, las barreras que dificultan el acceso de los pacientes a este tipo de tecnología generalmente se deben al desconocimiento de algunos especialistas sobre estas tecnologías, la desinformación por parte de las personas y sus familiares, o retrasos administrativos de las Entidades Promotoras de Salud”, explicó Alexandra Gómez, directora de la Fundación ASUBIM. Un ejemplo de esto es Perú, en donde los pacientes con diabetes tipo 1 continúan siendo tratados con insulina humana, un enfoque en desuso a nivel global y que solo persiste en países con recursos muy limitados. Este tipo de tratamientos se suele asociar con complicaciones como la hipoglucemia y una gran variabilidad glucémica que no logra un control efectivo de la condición. Esta falta de inversión en tecnología en Perú no solo deteriora la calidad de vida de los pacientes, sino que representa una alta carga para el sistema de salud. Por otra parte, en el caso de México, las personas con diabetes tipo 1 deben acudir a un hospital de tercer nivel del sector salud y/o ser beneficiario de alguna asociación de pacientes para tener acceso a tratamientos con insulina, pero no pueden acceder a tecnologías como los sistemas de administración automatizada de insulina (también llamados bombas) y de monitoreo continuo de glucosa. Es por esto que los expertos señalan la importancia de seguir las buenas prácticas de países como Argentina, Colombia y Chile, e impulsar la implementación de políticas de salud pública en cada país. A su vez, destacan la necesidad de alinear la legislación con la realidad operativa, asegurando que lo establecido por la ley se refleje efectivamente en la práctica médica.

La CONAE realizo una campaña en Península Valdés para la Misión SAOCOM

0
La Comisión Nacional de Actividades Espaciales (CONAE) realizó una campaña en Península Valdés, provincia del Chubut, requerida para mantenimiento de los “corner reflectors”, estructuras metálicas de aluminio que se utilizan para calibrar el radar de apertura sintética (SAR) de los satélites SAOCOM 1A y 1B.
Los trabajos se realizaron del 17 al 22 de octubre, con la participación de Matías Palomeque, Joaquín Ferreyra y Juan Manuel Cáceres, profesionales de la Gerencia de Observación de la Tierra de la CONAE. La agencia espacial argentina cuenta con 30 “corner reflectors” para calibrar los satélites SAOCOM, los cuales están distribuidos en las provincias de Córdoba, San Juan, Mendoza y Chubut. Cada “corner reflector” está compuesto por tres placas triangulares de tres metros de lado que reflejan la señal del satélite y permiten calibrar las imágenes, a niveles radiométricos y geométricos. Si bien los satélites se calibran y validan luego de su lanzamiento en la etapa que se denomina “commissioning” (puesta en servicio del satélite), estas estructuras también colaboran con el monitoreo periódico de diferentes variables a lo largo de la vida útil de los instrumentos.
“Durante la campaña realizamos una caracterización mecánica de los “corners”. Para eso utilizamos un escáner láser, que nos permite generar un modelo digital en 3D y poder chequear que las estructuras cumplan con todos los requerimientos, que son muy exigentes, en relación a la planitud y posibles deformaciones, por ejemplo. Otra de las tareas es ver cómo están apuntados hacia los satélites, para lo cual empleamos un inclinómetro digital, similar a un nivel”, indicó Ferreyra. “Los resultados fueron satisfactorios. Los encontramos estables y en perfectas condiciones”, afirmó.

La Armada Argentina y la de Chile preparan un Patrullaje Antártico Combinado

0

En una ceremonia marcada por la solemnidad y la preparación meticulosa, el Aviso ARA “Estrecho de San Carlos” zarpó desde la dársena de la Base Naval Puerto Belgrano con destino a Ushuaia. La travesía, que se enmarca en la XXVI Patrulla Antártica Naval Combinada (PANC), representa una destacada colaboración entre la Armada Argentina y la Armada de Chile, consolidando su compromiso con la preservación del medioambiente y la seguridad marítima en la región.

Presidiendo la ceremonia de zarpada, el Vicealmirante Jorge Juan Siekan, Comandante de Adiestramiento y Alistamiento de la Armada, lideró el evento junto al Contraalmirante Carlos María Allievi, Comandante de la Flota de Mar, y el Capitán de Navío Pedro Mariano Brandolín, Comandante Naval Anfibio y Logístico.

Tras concluir las labores de carenado y reparaciones en el dique del Arsenal Naval Puerto Belgrano, el Aviso ARA “Estrecho de San Carlos” se embarca en su misión hacia el Área Naval Austral, donde desempeñará un papel crucial en la PANC. El Capitán de Corbeta Arnaldo Gabriel Ozuna, Comandante de la unidad, informó al Comandante de la Flota de Mar el estado de “listo a zarpar“, recibiendo la autorización para iniciar el despliegue hacia la Base Naval de Ushuaia.

Dirigiéndose a la tripulación, el Vicealmirante Siekan expresó sus felicitaciones por el arduo trabajo realizado durante el periodo de alistamiento, instándolos a enaltecer la imagen y el honor de la Flota de Mar, considerada el corazón de la Armada. Sus palabras concluyeron con deseos de éxitos y buenos vientos para la travesía.

La Importancia de la Patrulla Antártica Naval Combinada (PANC)

La PANC, concebida a partir de los acuerdos del Tratado de Paz y Amistad de 1984, tiene como objetivo primordial la salvaguarda de la vida humana en el mar y la preservación del medioambiente en la región antártica. Operativamente, depende de los comandos del Área Naval Austral de la Armada Argentina y de la Tercera Zona Naval de la Armada de Chile, manteniéndose de manera ininterrumpida desde 1998.

Esta colaboración binacional cobra especial relevancia durante la temporada estival, cuando el tráfico marítimo en la Antártida se intensifica debido a actividades científicas, turísticas y comerciales. La PANC, reconocida por la Organización Marítima Internacional (OMI), despliega sus esfuerzos para patrullar y garantizar la seguridad náutica en esta área crítica.

La función principal de la PANC abarca servicios de búsqueda, rescate, salvamento marítimo, control y combate de la contaminación. Su misión es proporcionar seguridad a la navegación, proteger la vida humana en el mar y contribuir a mantener las aguas libres de contaminación al sur del paralelo 60º S, conforme a lo establecido en el Tratado Antártico. Este compromiso conjunto refleja la responsabilidad compartida de ambas Armadas en la preservación de un entorno marino único y fundamental.

Eduardo Gigante: «INVAP, radares, Fuerzas Armadas Argentinas y soberanía nacional»

Cuando el ex secretario de estado de Trump (EEUU), Rex Tillerson, visito el país por primera vez. Tillerson, puso en su agenda durante la visita, como PRIMER escala, la visita a INVAP en Bariloche, es decir llego directamente a las instalaciones de INVAP aún antes que visitar Buenos Aires, ¿Por qué? Bueno, según me comentaron, estaba muy muy interesado en dos temas, centrales nucleares y RADARES……. Y aquí comienzo la historia, el primer radar que obtuvo el país, fue una compra a los británicos (desarrolladores de esta tecnología), en el año 48 durante el gobierno de J.D.Peron, y comenzaron a ser operados por la FAA En 1953, obviamente era una tecnología totalmente nueva desarrollada en la década del 30, así que, en esa época, y si bien desarrollamos capacidades en fabricación de aviones con éxito, era imposible que avancemos en esa tecnología Más allá de esto Argentina fue pionera en la utilización de este tipo de tecnología, lo que permitió que se ganen algunas capacidades en temas de conocimiento de la misma, pero muy muy lejos de un desarrollo En el año 1996, C.S.Menem firma el decreto 145/96 para la compra llave en mano de un sistema que integrara el tráfico aéreo con el control aéreo (esto utiliza distinto tipos de radares, que más adelante explicare claramente). La cuestión es que no llego a ejecutarse, debido a irregularidades en la licitación, que provoco la caída de la misma. Argentina ya tenía equipos en algunos casos obsoletos que eran necesario reemplazar a la brevedad, pero llego el 2001 y todo el caos. Además de esto, el fabricante de los radares que argentina operaba, comunicaba que descontinuaba la venta de repuestos, profundizando aún más el problema, siendo además que en el medio hubo el ataque terrorista a las torres gemelas, que endureció la venta de esta tecnología, en síntesis, al no poseer la tecnología, se complicaba mucho la continuidad del control del espacio aéreo argentino. En 2003, durante la presidencia de Duhalde, se firmó el primer acuerdo entre el INVAP y la FAA para la fabricación de un radar en Argentina. Este preveía el diseño, desarrollo, construcción y puesta en funcionamiento de un prototipo de radar secundario. El Radar Secundario Monopulso Argentino, y aquí hago un paréntesis, existen varios tipos de radares, pero principalmente existen de dos tipos, los radares primarios y los radares secundarios. ¿Qué los diferencia a uno u otro?, bueno que el radar primario, utilizados con fines de defensa y control del espacio aéreo, no requieren “colaboración” del objeto detectado para obtener información acerca de su distancia al radar, respecto a éste y/o altura. En cambio, los radares secundarios utilizados también en control de tránsito aéreo y defensa, constan de un emisor terrestre que envía pulsos codificados que son respondidos por un artefacto llamado transponder, ubicado a bordo del avión, que da información sobre el mismo. Volvemos a la historia, en 2004, el entonces Presidente Kirchner firma el decreto 1407/04, que creaba el Sistema Nacional de Vigilancia y Control del Aeroespacio (SINVICA). Este organismo integraba la información de radares en todo el territorio argentino -“El impulso dado por los gobiernos kirchneristas (2003-2015) al diseño y fabricación de radares basado en el mencionado Decreto 1407/04 se materializó en forma paulatina: en noviembre de 2006 el Ministerio de Defensa aprobó el contrato firmado entre la FAA e INVAP para la provisión de un prototipo del RSMA y la posterior fabricación e instalación de una serie de diez de estos radares secundarios”- Fuente: Producción Nacional de Radares: Expresión de una soberanía tecnológica posible Universidad de la Plata Luego en 2008, se encargó a Invap la construcción de un Radar Primario, a (Radar Primario Argentino 3D de Largo Alcance o RPA3D-LA). Invap, diseño y construyo varios radares primarios y secundarios e instruyo a sus operadores con desarrollos argentinos desde 0! y UTILIZANDO SOLO EL 15% de partes importadas, todo esto permitió pasar de tener nuestro espacio aéreo. Soberanía Tecnológica 100%, cuantos países pueden fabricar radares? China, Rusia, Gran Britania, EEUU, Francia, España, Holanda, Suecia, Alemania…..y creo que no me olvido de ninguno. Además de esto, INVAP ya exporto el primer Radar, a Nigeria, posesionándose en el mercado de manera sólida. ¡Como siempre digo, la ciencia y la industria salvara a la nación, y el caso de INVAP es el comienzo de ello, mostrando lo que somos capaces de hacer! Es importante, y cierro el hilo, tener en cuenta que candidato a presidente impulsa estos desarrollos y cual no los impulsara jamás. Y otra cosa, la radarización de nuestro país, termino saliendo 5,5 veces menos que un llave en mano extranjero. Comentario de AgendAR: No nos consta que Rex Tillerson, o T-Rex según sus fans petroleros, visitara INVAP en su «toco y despego» por Bariloche para informarse sobre los radares argentinos. Más bien parece que el entonces Secretario de Estado de Trump estaba acrecentando su fortuna comprándose algunas tierritas en los Andes Patagónicos, aunque usando para ello un avión oficial de la Fuerza Aérea de los EEUU. Nadie se asuste: los petroleros saben exactamente cómo están jodiendo el clima planetario. Muchos millonarios gringos hacen lo mismo que don T-Rex, sabiendo que en la Patagonia Andina habrá agua pura de deshielo y temperaturas soportables durante varias décadas más. Eso con el plus de que pueden cerrar caminos, apropiarse de orillas pertenecientes al estado federal, y hacer lo que se les cante en sus tierras, sin que las leyes de este país los salpiquen siquiera. Es lo que pasa con no sé qué inglés que se choreó un lago entero en Río Negro, y con un fabricante italiano de ropa cheta que se las da de multicultural, pero maneja Santa Cruz y Chubut como si fueran dos de sus estancias, la Gendarmería como su guardia privada, y vive expulsando mapuches. Otrosí digo: nadie tiene la más mínima intención de cerrar el formidable RA-3, aunque haya entrado en servicio en 1967. Desde entonces, ese reactor fue repotenciado dos veces, de 3 a 5 y de 5 a 10 megavatios térmicos, y en cada una de esos cambios de potencia se reforzaron todos sus circuitos de refrigeración y sus sistemas de irradiación y control. Eso le permitió ser la fuente de radioisótopos médicos más productiva y confiable del Hemisferio Sur, salvo por la competencia que le hizo desde 1987 el RP-10 de Perú y desde 2006 el OPAL de Australia, dos reactores de 10 y de 20 MW respectivamente, ambos diseñados y construidos por la Argentina.  Ahora vamos a tener un monstruito de 30 MW, capaz de dominar (con el márketing adecuado) el 20% del mercado mundial de radioisótopos médicos, además de producir todos los años silicio irradiado para la industria fotovoltaica de alto rendimiento. En 2022 se vendieron U$ 679,8 millones de dólares de radioisótopos. Y la cifra trepa en rampa desde hace décadas, sin que se vea un techo. Es probable que exportando esos radiofármacos el RA-10 pague su propio costo de diseño y construcción en 6 o 7 meses, y que dure en servicio al menos 50 años. Mucho más que eso, si sale tan robusto como su antecesor, el RA-3. Aunque la opción de vender al menos U$ 40 millones más de silicio irradiado por año (para empezar) lo termina de volver el mejor negocio de la historia nuclear argentina, hasta el momento. Por esa misma causa, salvo que la ARN (Autoridad Regulatoria Nuclear) lo considere inseguro, nadie en sus cabales piensa cerrar el RA-3, que viene siendo la gallina de los huevos de oro actual. Y sigue muy ponedora. Daniel E. Arias      

El gasoducto Nestor Kircher: Cuanto ahorrara en importaciones Argentina

Un análisis del efecto que tendrán las expansiones de los gasoductos sobre los costos de generación y subsidios eléctricos.

La figura 1 muestra la demanda y oferta promedio mensual de gas natural y sus combustibles sustitutos del año 2022 para todo el sistema argentino de gas natural (no sólo para generación eléctrica). Tomando como referencia la situación de ese año, el sistema argentino de gas natural funcionó con una inyección promedio anual de unos 101 millones de metros cúbicos (m3) de gas nacional, unos 10,5 MMm3/d de gas de Bolivia y, para cubrir los picos invernales entre mayo y septiembre, unos 30 MMm3/d de GNL. Adicionalmente, existió una demanda insatisfecha de gas natural para la generación térmica que fue cubierta con 11,7 MMm3/d de combustibles líquidos (fundamentalmente gasoil), tal como se muestra en la figura.
Fig. 1. Demanda y oferta promedio mensual de gas natural y combustibles alternativos del año 2022. Fuente: elaboración propia basada en datos de ENARGAS y CAMMESA.
  Como se puede ver en el gráfico, teniendo en cuenta los altos costos del gas y de los combustibles importados del año 2022, el costo total de abastecimiento a los usuarios residenciales, comerciales, industriales y generación alcanzó los 11.700 millones de dólares. Los cálculos fueron realizados para los valores de precios promedio anual de los energéticos del año 2022: 3,9 dólares por millón BTU para el gas nacional, 14,5 dólares por millón de BTU para el gas de Bolivia, 38 dólares por millón de BTU para el GNL y 24 dólares por millón de BTU para el GO/FO. Como se muestra en la figura 1 de los 11,700 millones de dólares totales, sólo 4.300 millones de dólares fueron destinados a pagar el gas nacional. La importación de GO/FO por 3.100 millones de dólares constituyó el valor más elevado de las importaciones energéticas, seguido por el GNL por 2.600 millones de dólares y finalmente el gas de Bolivia por otros 1.700 millones de dólares.  
Fig. 2. Sistema de gasoductos de Argentina. En amarillo las ampliaciones previstas 2023 y 2024: GPNK en sus dos tramos y reversión del gasoducto Norte. Fuente: ENARSA.
  La inauguración del Gasoducto Presidente Néstor Kirchner (GPNK) entre Tratayen y Salliqueló, a mediados del año 2023, incorporó 11 MMm3/d adicionales que llegarán a los 21 millones m3/d con la puesta en marcha de las plantas compresoras de Tratayen y Salliqueló prevista para fines del año 2023 (figura 2).
De esta manera, se podrá evitar la utilización de combustibles líquidos y, mediante la reversión del gasoducto Norte, la totalidad de la importación de gas de Bolivia para generación térmica a partir del año 2024. Luego de la terminación del tramo Salliqueló-San Jerónimo y de las plantas compresoras intermedias en 2025, la capacidad de transporte del GPNK alcanzará los 39 millones m3/d, permitiendo disminuir también la compra de GNL en los picos de demanda invernal a valores mínimos. Con los precios del año 2022, el ahorro en términos de importaciones de combustibles líquidos y de gas de Bolivia hubiera alcanzado los 4.800 millones de dólares.    

Evolución esperada de los costos de generación de electricidad 2023-2026

Como vimos en la sección precedente, el cambio fundamental de corto plazo en el sistema energético argentino es la puesta en marcha del GPNK, que permite la incorporación de nuevos caudales de gas natural desde el yacimiento de Vaca Muerta. En la figura 3 se muestra la generación de electricidad por fuente (2021-2026). El aumento de la generación térmica por la mayor disponibilidad de gas natural y la recuperación esperada de la generación de energía nuclear permitirían reducir a un mínimo las elevadas importaciones de electricidad de los años 2022 y 2023. A partir del año 2025, se requeriría la incorporación de aproximadamente 2.000 GWh y 4.000 GWh de generación renovable en los años 2025 y 2026, respectivamente, para cubrir el aumento esperado de la demanda de electricidad sin aumentar la emisión de Gases de Efecto Invernadero (GEI) por MWh del sistema eléctrico.  
Fig. 3. Generación de electricidad por fuente (2021-2026). Fuente: Elaboración propia basada en datos de CAMMESA.
  En la figura 4 se muestra que el principal efecto del GPNK y de la próxima reversión del gasoducto Norte es la eliminación de los combustibles líquidos y del gas importado (gas de Bolivia y GNL) para la generación térmica. Un volumen remanente de GNL importado seguirá siendo necesario para cubrir totalmente la demanda residencial-comercial-industrial durante los meses invernales. Teniendo en cuenta que en el sistema argentino los costos generación promedio del año 2022 para cada fuente fueron de unos 38 US$/MWh para la generación térmica, a lo que se debe sumar el costo de combustibles por unos 76 US$/MWh, 17 US$/MWh del costo promedio de la generación hidráulica, 51 US4/MWh de la nuclear, 68 US$/MWh de la eólica, 70 US$/MWh de la solar, 123 US$/MWh del biogás y 98 US$/MWh de importación de electricidad, se obtuvo un costo promedio de generación de aproximadamente 89 US$/MWh [1]. Debido a la utilización de gas nacional en reemplazo de combustibles importados, los costos de combustibles bajarían de 76 US$/MWh en 2022 a 34 US$/MWh en 2024. En consecuencia, se obtiene un importante descenso de los costos totales de generación eléctrica del sistema (figura 5), que pasan de aproximadamente 13.000 millones de dólares por año en los años 2022 y 2023 a unos 9.500 millones de dólares en los años siguientes. Esto implica que el precio monómico de la electricidad disminuye de los casi 90 US$/MWh promedio anual actuales a valores cercanos a los 60 US$/MWh a partir del año 2024, como se muestra en la figura 6.  
Fig. 4. Combustibles para generación térmica (2021-2026). Fuente: Elaboración propia basada en datos de CAMMESA.
 
Fig. 5. Costos de generación (2021-2026). Fuente: Elaboración propia basada en datos de CAMMESA.
 
Fig. 6. Precio monómico y emisiones de CO₂ (2021-2026). Fuente: Elaboración propia basada datos de CAMMESA.
   

Esquema posible de quita de subsidios a la generación eléctrica

Teniendo en cuenta la evolución de la generación de electricidad por fuente (fig. 3) y la eliminación de la utilización de combustibles líquidos y del gas importado para generación (fig. 4), se estimaron los precios monómicos o costos totales de generación de la figura 7. Luego del pico cercano a 90 US$/MWh alcanzado en el año 2022 como consecuencia de la utilización de combustibles líquidos y de los elevados precios internacionales del GO, del GNL y del gas de Bolivia, la entrada en funcionamiento del GPNK permitiría bajar el costo de la energía a valores cercanos a los 60 US$/MWh a partir del año 2024. En el año 2022, los usuarios de las distribuidoras pagaron aproximadamente el 38 % del costo de la energía [2]. Considerando la disminución futura del costo de generación, se podría avanzar con una transición gradual hasta alcanzar el 90 % de cobertura en tres años (el 10 % remanente se destinaría a atender a la demanda con tarifa social). Esto significaría aumentos en el segmento de generación de la tarifa en moneda constante del 19 %, 16 % y 14 % en los años 2024, 2025 y 2026 respectivamente. Es importante tener en cuenta que los costos y tarifas son calculados aquí en dólares oficiales, lo cual posiblemente implique un fuerte aumento inicial en relación con el poder adquisitivo en caso de una devaluación importante a principios del año 2024. El crecimiento económico que cabe esperar luego del acomodamiento de las variables macroeconómicas permitiría, muy probablemente, que el establecimiento de un ajuste tarifario (adicional al aumento en moneda constante) sobre la base del promedio de aumento de los salarios resulte social, económica y políticamente el sistema más conveniente.  
Fig. 7. Variación reciente (2021-2023) del precio monómico o costo de generación y el segmento de generación de la tarifa a los usuarios residenciales/comerciales y una evolución posible (2024-2026). Fuente: Elaboración propia basada en datos de CAMMESA.
  Teniendo en cuenta los costos totales de generación eléctrica y los montos efectivamente pagados por los usuarios de las distribuidoras, el nivel de subsidios al sistema de generación de electricidad pasaría de unos 6.300 millones de dólares de los años 2022 y 2023 a solo 760 millones de dólares en el año 2026 (figura 8).  
Fig. 8. Variación reciente (2021-2023) del costo total de generación para los usuarios residenciales/comerciales, lo recaudado de los usuarios y el monto de los subsidios resultantes y una posible evolución (2024-2026). Fuente: Elaboración propia basada en datos de CAMMESA.

Los métodos de control del clima. Y un cuestionamiento de AgendAR

China lanzó un gigantesco operativo para que no lloviera en Pekín durante la ceremonia inaugural de los Juegos Olímpicos de 2008, y lo logró. Al año siguiente hubo otra campaña similar, también exitosa, para evitar lluvias durante los festejos del 60º aniversario del triunfo de la revolución comunista. Y el Servicio de Modificación del Estado del Tiempo de ese país se propuso para 2025 tener controladas las precipitaciones en el 60% de su inmenso territorio, o sea en una superficie igual al doble del tamaño de la Argentina.

Con 50.000 empleados en todo el país, China tiene hoy la mayor infraestructura mundial para el control de la lluvia. En este rubro, también han logrado avances significativos varios estados norteamericanos y Emiratos Árabes Unidos (EAU). Pero en este último caso, su Centro Nacional de Meteorología tiene objetivos diferentes. Con temperaturas que superan habitualmente los 45°C en EAU el bombardeo de nubes con cargas eléctricas busca provocar precipitaciones para adicionalmente refrescar el suelo en forma local.

“Recuerdo en 2015 cuando era Secretario General Adjunto de la ONU para el Cambio Climático, que estuvimos visitando China en ocasión del 70° aniversario del final de la Segunda Guerra, y pareció que organizaron todo para que el tiempo estuviera excelente mientras se realizaban los actos. Solo al día siguiente de la finalización de los eventos, cuando nos estábamos yendo, comenzó a llover”, comentó el científico húngaro-suizo Janos Pasztor, director ejecutivo del Carnegie Climate Governance Initiative (C2G), una organización con sede en Nueva York que, más allá de los proyectos referidos al estado del tiempo, busca catalizar la creación de una gobernanza efectiva para las tecnologías de modificación del clima.

Pekín celebra con un cielo diáfano el 70° aniversario del final de la Segunda Guerra. Al día siguiente de finalizados los eventos, comenzaron las lluvias
Pekín celebra con un cielo diáfano el 70° aniversario del final de la Segunda Guerra. Al día siguiente de finalizados los eventos, comenzaron las lluvias

La tecnología para controlar las lluvias tiene ya muchos años, pero no se trata de “crear” lluvia, sino de sembrar las nubes existentes con partículas de sal o yoduro de plata, a través de aviones, cohetes o dispositivos terrestres de difusión de humo, para que descarguen a tierra su humedad. Los científicos llevan más de un siglo estudiando estos dispositivos, pero China se está posicionando como líder mundial en esta práctica. “Lo que se logra es hacer que las nubes descarguen su humedad en determinado lugar y no en otro. De algún modo lo que se hace es ‘robar’ el agua que caería en otra ocasión u otro sitio. Por eso la polémica presentada por algunos países vecinos de China”, explicó Pasztor.

Mientras estos proyectos parecen haber sido exitosos en el manejo del estado del tiempo en el corto plazo, en todo el mundo hay estudios para trabajar sobre el clima y buscar la manera de modificar de forma más estable patrones como radiación solar y temperaturas en la tierra y en el agua.

Estas iniciativas son paralelas a los compromisos gubernamentales para combatir el cambio climático, que volverán a ser discutidos a fin de mes en la Cumbre del Clima 2023 de Dubái (entre el 30 de noviembre y el 12 de diciembre), y que apuntan básicamente a reducir las emisiones de carbono para limitar el aumento de la temperatura a 1,5 grados Celsius por encima de los niveles preindustriales, como se estableció en el Acuerdo de París de 2015.

Modificación del clima

Los expertos en modificación del clima no trabajan en cambios inmediatos sino en el largo plazo. Básicamente se dividen en iniciativas para la modificación de la radiación solar y para la remoción del dióxido de carbono existente en la atmósfera. De toda maneras, los estudios sobre la radiación solar se hallan aún en etapa teórica o experimental.

La mayoría de los planes para modificar la radiación apuntan a inyectar aerosoles en la estratósfera para que reflejen los rayos del sol hacia el espacio y no calienten tanto la Tierra.

“Una de las paradojas de la actualidad es que la Humanidad ya está inyectando aerosoles en la atmósfera con la utilización de combustibles fósiles. Y los científicos estiman que esos aerosoles reducen aproximadamente hasta un grado centígrado la temperatura del planeta. En otras palabras, si hoy se detuviera por completo la emisión de combustibles fósiles, la temperatura aumentaría hasta un grado”, explicó Pasztor.

El único proyecto que ya está en marcha para modificar la radiación solar es el de la empresa privada norteamericana Make Sunsets, que envió a la estratósfera un centenar de globos cargados con unos 10 gramos de dióxido de azufre cada balón. El supuesto objetivo de ese polvillo es reflejar los rayos del sol lejos hacia el espacio, enfriando la Tierra y mitigando temporalmente los efectos del cambio climático.

Básicamente, se imita el efecto de un volcán en erupción. Cuando en 1991 el Monte Pinatubo en Filipinas liberó unos 20 millones de toneladas de dióxido de azufre a la estratósfera, la temperatura global de la Tierra bajó en 0,4°C según el Servicio Geológico de Estados Unidos. El objetivo de Make Sunsets es por supuesto de una escala infinitamente menor.

Pero los expertos consideran que si unos cientos de aviones lograran desparramar regularmente aerosoles en la estratósfera alrededor del Ecuador, los vientos se encargarían luego de distribuirlos adecuadamente por todo el planeta y generar una especie de “efecto volcán”. El cielo seguramente se vería ligeramente más gris y se ignora qué efecto puede tener, por ejemplo, en la fotosíntesis o en la generación de energía solar.

“La situación de Make Sunsets y de otros emprendimientos en todo el mundo nos recuerdan la necesidad de contar con una autoridad planetaria que regule los proyectos de modificación del clima y que también la gente afectada pueda opinar. El impacto de actividades a gran escala para reducir la temperatura global, serán globales, sobre todos los ecosistemas y sobre todas las economías. Hasta ahora la iniciativa de Make Sunsets es de pocos cientos de miles de dólares y el impacto, si existe, es muy limitado. Pero qué pasaría si algún multimillonario decidiera lanzarse a un megaproyecto de varios billones de dólares. ¿Quién regularía su actividad?”, se preguntó Pasztor.

Por su parte la climatóloga argentina Inés Camilloni, del Programa de Investigación de Geoingeniería Solar de la Universidad de Harvard, explico una experiencia particular que se está realizando en Australia: el blanqueamiento de las nubes marinas. “El Marine Cloud Brightening (MCB) consiste en hacer que esas nubes sean más blancas bombardeándolas con sales marinas. Así tienen un mayor índice de reflexión de la luz hacia el espacio, y esto supuestamente permitiría, por ejemplo, proteger del calor la Gran Barrera de Coral”, explicó.

Cubierta de glaciares suizos con mantas en verano para disminuir su derretimiento
Cubierta de glaciares suizos con mantas en verano para disminuir su derretimiento

Además hay proyectos para modificar el impacto de la radiación solar en la superficie, por ejemplo, en Suiza y también en el Ártico. Algunos glaciares son cubiertos con láminas de plástico durante el verano para reflejar más luz solar y morigerar su derretimiento.

Remoción del dióxido de carbono

Unas iniciativas que están más directamente relacionadas con el objetivo de frenar el cambio climático y que ya se encuentran en una etapa más avanzada de concreción son las que apuntan a la remoción del dióxido de carbono existente en la atmósfera.

Por ejemplo, las empresas norteamericanas Noya o Verdox venden equipamiento para incorporar en los sistemas de aire acondicionado de los grandes rascacielos, que capturan el dióxido de carbono del ambiente.

También hay compañías que trabajan en la “mineralización del carbono” que se encuentra en el aire, convirtiéndolo en rocas o arena. Otras alternativas naturales son la plantación de árboles y algas que remueven el dióxido de carbono de la atmósfera.

Debate ético

Con tantos avances tecnológicos en la actualidad, la pregunta obvia es por qué la gran mayoría de los proyectos está solo en etapa teórica frente a la necesidad urgente de frenar el calentamiento global.

La respuesta no es económica porque, por ejemplo, tener algunos centenares de aviones esparciendo aerosoles en la estratósfera para disminuir la radiación solar, se estima que puede costar unos 10.000 o 20.000 millones de dólares, lo que es una cifra insignificante en el presupuesto global.

“Además de la falta de un sistema de gobernanza global que regule la implementación de los diferentes proyectos, aún hay mucha investigación por delante sobre los riesgos que implica intervenir en la modificación del clima”, consideró Camilloni. “Por ejemplo, la incorporación de aerosoles en la estratósfera podría llegar a ser beneficiosa en alguna región y desfavorable en otra. ¿Quién tomará la decisión de dónde se aplica un proyecto?”, advirtió.

Por su parte Pasztor coincidió con el análisis. “La verdad es que aún no sabemos qué impacto pueden tener en el largo plazo muchos de estos planes. Algunos cuestionan: ‘¿Somos dioses para intentar manipular algo tan inmenso como el clima?’ Y no se refieren necesariamente a ‘dioses’ en un sentido religioso sino en la cantidad de imponderables para los que, por nuestras limitaciones, aún no tenemos respuesta. Y creo que esos cuestionamientos deben ser atendidos”, concluyó el científico húngaro-suizo.

Comentario de AgendAR:

Lo de sembrar nubes de tormenta con ioduro tiene ya un siglo. En Mendoza, cuyas cosechas sufren muchísimo con las granizadas, se hizo durante décadas con cohetes de dispersión de ioduro de plata de fabricación soviética, y sin mayores efectos medibles. ¿Qué tendrán los chinos?
.
El ioduro de plata es un compuesto caro, por la plata, y los cohetes no son gratis.
.
De todos modos los cohetes cuestan menos que la siembra de ioduro de plata desde aviones en vuelo por la tropopausa, la interfase tropósfera- estratósfera, más precisamente. Los sulfatos emitidos por los caños y toberas de escape de los motores de combustión interna, incluidas las turbinas de esos presuntos aviones de siembra, no contrapesan la suma de particulados de hollín, de CO2 y de óxidos de nitrógeno que emite la combustión de combustibles fósiles.
.
Los experimentos de blanqueamiento de nubes de los australianos por ahora sólo logran blanquear que los habitantes de esa isla-continente hoy son el mayor emisor planetario de carbono fósil por cabeza de habitante. Eso sucede básicamente porque Australia es la carbonera «de la locomotora china», la mayor fuente de gases invernadero. Y eso sucede porque China, pese a sus gigantescas inversiones nucleares, funciona a carbón, va a seguir haciéndolo y es y será el mayor contaminador mundial.
.
Como la proyección de nuevas explotaciones de hidrocarburos de las 20 naciones más petroleras sigue en rampa de aquí a 2050, las emisiones de carbono siguen subiendo sin enterarse de cuanto congreso mundial celebran las Naciones Unidas para impedirlo. Sólo el verano pasado murieron 60.000 europeos occidentales por golpe de calor, básicamente viejos y chicos, pero también personas jóvenes y atléticas.
.
Caminar 15 cuadras por Buenos Aires o Córdoba y caerse muerto a los 40 años porque había 44 grados de temperatura le pone realidad y carne al aséptico título de «cambio climático». Ya es un asunto personal. No hace falta mostrar que cuando se derritan más las plataformas de hielo flotante antártico se ahogará gente en las ciudades costeras. El calor te mata antes, y es invisible.
.
Todas estas presuntas mitigaciones son como aspirinas para detener un cáncer de grado 4.
.
El neologismo político que las describe es «greenwashing», el «blanqueo verde» de un futuro que pinta renegrido, especialmente para los países pobres agropecuarios y mineros, y también para miles de ciudades cuyos ríos y acuíferos ya se están quedando sin agua.
.
Santiago de Chile del otro lado de la Cordillera, y Mendoza del nuestro, por dar un ejemplo
.
Daniel E. Arias

Estados Unidos propone a Brasil convertirse en el nuevo fabricante y exportador (cautivo) de chips

0

A finales de octubre aterrizó en Brasil una amplia e importante delegación encabezada por el Departamento de Estado y el EXIM Bank, el organismo oficial de crédito del gobierno de los EEUU, junto a gigantes tecnológicos como Google, Nvidia, Meta y Cloudfare. El encuentro tuvo lugar en la prestigiosa Universidad Estatal de San Pablo (USP).

La idea presentada es crear en Brasil un polo tecnológico para desarrollar y producir semiconductores, más conocidos como chips, con tecnología avanzada para abastecer no sólo el mercado interno, sino también el mundial, comenzando por Estados Unidos. Los semiconductores son pequeños procesadores que se utilizan en la tecnología de los teléfonos móviles, la informática avanzada, los drones y los equipos militares. Se han convertido en el corazón palpitante del mundo moderno.

Durante la reunión, la delegación estadounidense trató temas como la transferencia de tecnología y la financiación de la producción local. Precisamente durante la pandemia que paralizó la producción y las exportaciones, Brasil, como el resto del mundo, se enfrentó a una escasez de chips que obligó a la industria a ralentizar su producción.

En 2021, durante el gobierno de Bolsonaro, se liquidó la única fábrica de semiconductores de Brasil y del hemisferio sur, el Centro Nacional de Tecnología Electrónica Avanzada (CEITEC). La liquidación en el gobierno Lula fue posteriormente suspendida.

Creado en 2008 en Porto Alegre, sur de Brasil, el CEITEC cuenta con 180 empleados de alta tecnología que se vieron reducidos a producir únicamente chips para el rastreo de ganado y los peajes de las autopistas. El centro fue liquidado debido a su gestión financiera. A pesar de haber recibido cerca de 600 millones de reales entre 2010 y 2018, unos 122 millones de dólares, acumuló una pérdida de 160 millones de reales (33 millones de dólares) en el mismo período.

La propuesta que llega del exterior podría, por tanto, permitir a Brasil pasar página y mirar con más esperanza a un sector tan codiciado como el de los semiconductores a través de un proyecto internacional, liderado por los principales actores globales. Sólo el año pasado, el sector de los semiconductores movió 592.000 millones de dólares en todo el mundo.

El tema toca de cerca a Estados Unidos, que en su guerra, sobre todo comercial, con China busca nuevas alternativas, teniendo en cuenta también las amenazas geopolíticas recibidas de Pekín hacia su aliado Taiwán, baluarte mundial en este segmento específico de la producción.

Y que Washington está interesado lo demuestra el hecho de que durante la visita de Lula a Joe Biden en Estados Unidos, el pasado febrero, la secretaria de Comercio norteamericana, Gina Raimondo, abordó personalmente el asunto con el presidente brasileño. En agosto de 2022, la administración Biden aprobó la llamada Ley CHIPS y Ciencia, un paquete de medidas por valor de 52.700 millones de dólares para revitalizar la industria de los semiconductores.

Transcurrido un año, aún no se han entregado los fondos a los distintos gigantes del sector, que se han quejado por ello. “Empezaremos a dar fondos a finales de este año”, declaró Gina Raimondo en agosto, “estamos presionando a nuestro equipo para que vaya rápido, pero sobre todo para que haga las cosas bien”. El timing del viaje a Brasil hace presagiar, por tanto, que el paso de la teoría a la práctica será breve.

La propuesta estadounidense tiene el potencial de forzar al mundo de la política a un debate de mayor envergadura, el de un plan estructurado y a largo plazo para la industrialización del país. Courtesy of SEEQC/Handout via REUTERS/File Photo

Y no es casualidad que la reunión se celebrara en la universidad pública más prestigiosa del país, la USP. El mundo de la investigación académica e industrial en Brasil es, de hecho, uno de los sectores más vibrantes para los chips en estos momentos.

El Centro de Investigación Avanzada Werner von Braun de Campinas, en el estado de San Pablo, por ejemplo, trabaja en el concepto de “fabless”, es decir, la producción de chips en espacios reducidos sin fábricas, en el sentido tradicional del término. Se trata de prototipos de minifábricas de chips en espacios de 40 m x 40 m que pueden producir semiconductores en cualquier lugar, ya sea en centros de investigación, parques tecnológicos o industrias.

La propuesta de EE.UU. para Brasil se integra en toda la región. La semana pasada, en la Cumbre de APEP, (The Americas Partnership for Economic Prosperity), un programa estadounidense de cooperación con las Américas, del que Brasil no forma parte, los países participantes debatieron sobre semiconductores y energías limpias, entre otros temas.

“Tenemos la intención de hacer de las Américas la sede de las cadenas de valor y suministro regionales más competitivas, inclusivas, sostenibles y resilientes del mundo”, afirmaron en una declaración conjunta. Por supuesto, Brasil tendrá que lidiar con la alta competitividad de México, que además de ser el octavo fabricante mundial de electrónica también produce chips (exportó 720 millones de dólares en semiconductores en 2021). Pero la demanda mundial es tan gigantesca que realmente hay lugar para todos.

El proyecto presentado en la USP es, por tanto, una excelente oportunidad para Brasil, por varias razones. En primer lugar, se crearán nuevos puestos de trabajo, pero sobre todo se profesionalizarán determinados sectores ocupacionales. El resultado podría ser un nuevo estímulo para el mundo laboral, que históricamente adolece de falta de especialización en Brasil.

Además, el alcance internacional del proyecto y la presencia de socios tecnológicos globales pueden evitar una mala gestión local. De hecho, según la prensa brasileña, el gobierno no ha tenido hasta ahora una estrategia clara en materia de semiconductores. Recientemente, la Secretaría de Desarrollo Tecnológico e Innovación consiguió obtener del Congreso la prórroga del Programa de Apoyo al Desarrollo Tecnológico de la Industria de Semiconductores (PADIS) hasta 2026.

Con este programa, el Planalto espera obtener hasta el equivalente de dos millones de dólares anuales en desgravaciones fiscales para el sector. El problema es que los paneles fotovoltaicos también se han incluido en el PADIS, perdiéndose así el objetivo principal del programa.

En agosto de 2022, la administración Biden aprobó la llamada Ley CHIPS y Ciencia, un paquete de medidas por valor de 52.700 millones de dólares para revitalizar la industria de los semiconductores. REUTERS/Florence Lo/Illustration/File Photo

Por lo tanto, la propuesta estadounidense también tiene el potencial de forzar al mundo de la política a un debate de mayor envergadura, el de un plan estructurado y a largo plazo para la industrialización del país. 

Por último, Brasil podrá desafiar la hegemonía depredadora de China, que el viernes pasado inauguró en Cuba el Parque Industrial China-América Latina (CLIP), un polo de ciencia y tecnología en el que participan 53 empresas chinas, pero sobre cuyos objetivos no se han divulgado detalles.

Xi Jinping, durante la visita de Lula a Pekín el pasado abril, había propuesto acuerdos con Brasil en el sector de los semiconductores, pero si el gigante latinoamericano acepta la financiación estadounidense, según el Chips Act, no podrá hacer nada con China en el frente tecnológico durante 10 años. 

“Los beneficiarios del Chips Act”, dijo Gina Raimondo en su presentación, “tendrán que firmar un acuerdo que limite su capacidad de ampliar la capacidad de fabricación de semiconductores en países extranjeros que consideremos sensibles durante un periodo de 10 años después de recibir el dinero”.

La Secretaria de Comercio estadounidense, aunque no nombró en ningún momento a China, añadió también que los beneficiarios “no podrán participar en actividades conjuntas de investigación o concesión de licencias tecnológicas con una entidad extranjera de un país sensible que impliquen tecnologías o productos sensibles”.

Cabe recordar que Brasil está experimentando una ola de innovación tecnológica en algunos sectores que promete dar importantes resultados. El pasado viernes, el presidente del Banco Central de Brasil, Roberto Campos Neto, afirmó que la autoridad monetaria introducirá la inteligencia artificial (IA) en el sistema financiero del país de aquí a 2025. “El objetivo”, dijo, “es utilizar la IA para que el proceso financiero sea mejor para las personas”. 

Esta sería la etapa final de un proceso de innovación en el sistema financiero brasileño, que comenzó con el Pix, un sistema de transacciones instantáneas, y continuó con la banca abierta, es decir la integración de datos entre bancos, y la internacionalización de la moneda, a saber, nuevas regulaciones para facilitar las transacciones internacionales.

El Drex, es decir la creación de una moneda nacional, el real totalmente digital, es el último proyecto junto con la introducción de la inteligencia artificial en la que está trabajando el Banco Central. Y que el impulso tecnológico en Brasil sea favorable lo demuestra también la percepción de los ciudadanos de a pie.

Un reciente estudio de Getty Images, uno de los gigantes mundiales de la fotografía, realizado en 25 países y sobre una muestra de más de 7.000 encuestados revela que los brasileños son los más interesados en la Inteligencia Artificial. Cuatro de cada seis de ellos creen que la IA tendrá un impacto positivo en sus vidas.

Maria Zuppello

Comentario de AgendAR:

Las cláusulas restrictivas del Chips & Science Act como motor de inversiones del Eximbank son enormes, y además el objetivo principal. Por ahora, Washington parece estar ofreciéndole a la Universidad de San Pablo no un trampolín desde la informática académica a la industria. No, señor. Más bien, ofrece crédito para que Brasil compre plantas llave en mano con paquete tecnológico cerrado de Google, Nvidia, Meta y Cloudfare, onda «Me Tarzan, you Jane». El propósito parece múltiple, pero el fundamental parece evitar que los brasucas desarrollen sus propias unidades de diseño de chips para fabricación por terceros, o «fabless», es decir sin fábrica, o (peor aún) de que se asocien de ése u otros modos con China en el tema chips. Las capacidades de que Brasil se vuelva un país con oferta propia de alta tecnología siempre inquietaron a Washington. La única vez que en La Tierra de los Libres y Hogar de los Valientes se descuidaron, Embraer pasó ante sus narices de ser el diseñador de un pequeño biturbohélice de cabotaje, el Bandeirante, a lo que es hoy: el tercer fabricante mundial de jets de cabotaje de largo alcance con un solo pasillo. Para añadir vinagre a la herida, son muchas las rutas descentralizadas dentro de EEUU y Canadá en que se vuela con Embraer, y no para gran alegría de Boeing, Lockheed o Bombardier. Y es más: Embraer fabrica también en China y Europa. Las posibles alianzas tecnológicas con la Argentina tampoco son bien vistas por Washington. El plan conjunto de Embraer y la Fábrica Militar de Aviones FMA en Córdoba para construir un bimotor de cabotaje de alta velocidad propulsado a turbohélice, entre mediados de los ’80, llevó al CBA-123. Era una máquina de aspecto, configuración y aviónica avanzadísimas y distintivas, que en 1990 levantó interés y pedidos en las ferias aeronáuticas de París y Fairnborough. Pero no llegó a producirse en serie ni a venderse a aerolínea alguna, porque el plan fue abortado a pedido del State Department por dos magníficos vendepatrias recién devenidos presidentes: Carlos Menem aquí y Fernando Collor de Melo en Brasil. Perdimos un proyecto Mercosur en el que teníamos apostados U$ 300 millones, y los brasucas, el doble. Pero ellos conservaron Embraer, porque estaba bajo paraguas de la Fuerza Aérea Brasileña, que no había perdido ninguna guerra. En cambio Menem le cedió la FMA a Lockheed para que la empresa yanqui fingiera estar construyendo cazas de entrenamiento Pampa hasta 2011. Lentamente, eso sí, a algo más de media unidad por año, y a cambio de U$ 14 millones/año pagados por la Argentina. Más una indemnización de U$ 60 millones por haber dejado aquella enorme unidad industrial en estado de ruina cuando CFK les dijo (aeronáuticamente) que era hora de ahuecar el ala. En informática, los brasileños han sido una pesadilla pequeña pero recurrente de los EEUU. En 1990 Menem y Collor de Melo cerraron la ESLAI, (Escuela Latinoamericana de Informática) a pedido de Ronald Reagan y luego de George Bush. En la ESLAI, la Argentina ponía sus décadas de buena vinculación entre matemáticas y software, y Brasil añadía su capacidad de fabricación de hardware. Nuestros primos brasucas a fines de los ’80 eran el sexto mercado informático mundial, defendido por tasas aduaneras y abastecido de sorprendentes fierros propios. Uno los veía en todas las oficinas, aeropuertos y empresas, marcas que los argentinos ignorábamos que existieran. Nosotros también teníamos prontuario frondoso en Washington. Ya durante los ’70 las calculadoras de Fate-Cifra argentinas habían dominado el 30% del mercado sudamericano desde Tierra del Fuego hasta México, a excepción de Brasil, donde ya regían las leyes de protección de la electrónica local, que todavía no se llamaba informática. Las calculadoras tanto estudiantiles, contables o científicas Cifra se vendían hasta en Alemania, y -para inquietud de Texas Instruments- llegaban a la orilla sur del Río Grande. Cifra estaba a punto de presentar el modelo 1000, que habría sido la primera computadora de escritorio del mundo antes que la Apple 1 de Jobs y Wozniak. En esa estábamos los argentos cuando Cifra desapareció en meses, sepultada por importaciones libres japonesas y estadounidenses a precio de dumping. Explicación: un decreto del ministro de economía del Proceso, José Martínez de Hoz. Sumando recursos humanos nuestros en software y habilidades y capacidades industriales de ellos, entre 1986 y 1990, cuando se creó y existió la ESLAI, el Mercosur avanzó varios casilleros a tener la base de recursos humanos para intentar un par propio de Silicon Valleys, con sedes en la ciudad de Paraná, Brasil, y en el Parque Pereyra Iraola, La Plata. Eso estaba en marcha, y Menem y Collor nos barrieron las patas. Pero, para variar, nosotros volvimos a fojas cero y los brasileños no. Mantienen una industria propia, aunque menos deslumbrante que la que tuvieron en los ’80. En este caso me parece que a ojo de buen embajador no se han muerto lo suficiente, porque les están volviendo a barrer las patas, pero esta vez bajo disfraz de regalo. Un presente griego, cosa de que Brasil no reconstruya sus capacidades informáticas independientes. Increíblemente, las perdió no con Collor sino en el último año de la presidencia de José Sarney, fundador del Mercosur, a cambio de poder seguir exportando jugo de naranjas, cuero y zapatos a los EEUU. Las asociaciones empresariales de rubros más o menos primarios se aterraron de que EEUU les subiera los aranceles, y exigieron que su presidente obedeciera la orden de Ronald Reagan y liquidara la reserva de mercado informático de Brasil. Un buen ejemplo de cómo hay momentos de la historia en que las industrias más extractivas y primarias de un país periférico asesinan por la espalda a las más avanzadas de igual origen, a cambio de puerto libre en la metrópolis. Si tienen suficiente lobby, claro está, y no las protegen los milicos. Lo que le está ofreciendo Big Brother Biden a Brasil no son fábricas, son factorías cautivas por propiedad intelectual y por cláusulas restrictivas de venta, uso y asociación. Parece muy seguro de que le va a ir bien, pero el mundo se le ha vuelto demasiado multipolar y resbaloso al Joe. Espero que esta vuelta le salga muy mal. Los brasucas no resultaron socios fáciles. Pero son los que tenemos, y el Mercosur recién empieza.

Daniel E. Arias

Desarrollo de la industria forestal en Corrientes: energia y exportaciones

0
El secretario de Industria y Desarrollo Productivo de la Nación recorrió las obras del complejo forestoindustrial que construye Acon Timber en Gobernador Virasoro, y que con una inversión total de 250 millones de dólares exportará el 100% de su producción a más de 70 países. El secretario recorrió el avance de las obras del complejo forestoindustrial que la empresa Acon Timber inaugurará este año y que exportará el 100% de su producción a más de 70 países del mundo. Además, visitó la planta Fuentes Renovables de Energía S.A. (FRESA), empresa que abastece de energía eléctrica al Sistema Interconectado Nacional a partir del uso de biomasa forestal y analizó, junto con el intendente local, Emiliano Fernández Recalde, las distintas inversiones que se impulsan en la región, y su impacto en la generación de empleo registrado, el desarrollo local y el ingreso de divisas. “Argentina está ante una oportunidad histórica y Corrientes ubica a nuestro país otra vez en el tablero de la forestoindustria a nivel mundial. Inversiones como las que vemos hoy acá sintetizan el futuro de la Argentina productiva que estamos construyendo; esta provincia tiene los recursos naturales que el mundo demanda: acá crece en 9 años lo que en el mundo tarda 45”, afirmó Mendiguren, y puntualizó: “Como plantea Sergio Massa, para crecer necesitamos fortalecer las exportaciones y acá tenemos un ejemplo concreto de cómo lo estamos haciendo, de la mano de un modelo económico sustentable. Argentina va a alcanzar un proyecto de desarrollo con unidad nacional y liderazgo serio, no con grietas, improvisaciones o saltos al vacío”. Asimismo, Mendiguren destacó que Virasoro es un claro ejemplo del modelo de desarrollo del país, donde se están llevando adelante inversiones de empresas de 8 países, como Austria, Bélgica, Estados Unidos, República Checa, Taiwan, en proyectos con alto valor agregado y perfil exportador. Gobernador Virasoro tiene diversidad productiva, donde además de la foresto industria se promueven sectores como té, yerba, ganadería y agricultura, con una mirada sostenible y con proyectos innovadores, como el vivero de clonación de plantas, donde se generan especies que crecen hasta 9 metros por año, fruto de los avances en mejora de especie y las condiciones únicas de nuestro país. En ese sentido, se han instalado inversiones checas en un vivero forestal con tecnología de avanzada para garantizar la continuidad de la producción de pinos, con una capacidad esperada de 10 a 20 millones de plantines. También la empresa norteamericana Louisiana Pacific Corporation (LP Building Solutions) avanzó en el estudio de factibilidad para instalar en la localidad la primera planta argentina para producir tableros OSB para construir viviendas más versátiles y económicas. El proyecto espera generar 200 empleos directos y 500 indirectos y alcanzar una capacidad de producción anual de 300.000 metros cúbicos. Acon Timber SAU, empresa forestoindustrial perteneciente al grupo inversor austríaco HS Timber Group y a la firma belga Forestcape, ya invirtió más de 100 millones de dólares, en el marco de una inversión total de 250 millones de dólares, para la construcción de la primera etapa del que será el complejo forestoindustrial más grande del país y el más moderno de América Latina. El proyecto, que se encuentra en etapas finales de construcción, posee 20 hectáreas de área industrial total y 60 mil metros cuadrados de área cubierta, en los que procesará un total de 650.000 m3 de rollos al año provenientes de productores locales. Esto generará más de 280 puestos de trabajo permanentes altamente calificados, cerca de 600 empleos indirectos y permitirá exportar el 100% de su producción a más de 70 países del mundo. El proceso productivo de la planta se basa en el principio de “cero desperdicio”: los rollos son procesados y transformados en madera aserrada mientras que sus subproductos (cortezas, aserrín, astillas, virutas) son convertidos en pellets que se exportarán como biocombustible para calderas domiciliarias del sur de Europa. Además, la corteza también es aprovechada ya que se convierte en combustible de las calderas que generan el vapor en el proceso de secado. En esta primera etapa, la planta producirá anualmente 330.000 m3 de madera aserrada y 135.000 toneladas de pellets. En una segunda etapa, la firma prevé duplicar la capacidad productiva y se estima que para 2025 tendrá un volumen exportable de 1.000 contenedores mensuales. Biomasa: economía circular sustentable Mendiguren, que estuvo acompañado por la subsecretaria de Industria, Priscila Makari, también visitó la planta de la empresa Fuentes Renovables de Energía S.A. (FRESA), donde funciona la Central Térmica de Biomasa Garruchos. Esta central provee de energía eléctrica al Sistema Interconectado Nacional a partir del uso de biomasa forestal, es decir, materia orgánica que resulta como subproducto de las plantaciones y los residuos forestoindustriales. La planta utiliza descartes de la producción forestoindustrial, como aserrín, cortezas de pino, eucalipto, y biomasa proveniente de madera seca sin afectar bosques nativos. Los residuos se obtienen de la compra a empresas forestales ubicadas en un radio de 100 kilómetros, y actualmente genera 40 megawatt hora de electricidad, lo que equivale al 10% del consumo total de la provincia de Corrientes. FRESA, una empresa de capitales 100% nacionales y que emplea a más de 100 personas, invirtió USD 60 millones en esta central que se encuentra productiva desde fines de 2022. La firma avanza también en una segunda central que, cuando se encuentre operativa, convertirá a FRESA en la planta de biomasa más grande e importante de la Argentina. Corrientes es la principal provincia productora de energía a partir de biomasa del país y entre 2020 y 2023 generó un total de 1.123 GWh. Además de la Central Térmica Garruchos, en la provincia funciona también la Central Térmica de Biomasa de Santa Rosa, con capacidad para abastecer a más de 25.000 hogares. Durante la jornada de trabajo en Corrientes, Mendiguren visitó el Parque Industrial Gobernador Virasoro. En el predio, de 17 hectáreas, se encuentran radicadas 13 empresas que generan 200 empleos. Además, se encuentra una sede del Instituto Nacional de Tecnología Industrial (INTI), donde actualmente se brinda capacitación para el personal de Acon Timber y asistencia técnica en eficiencia energética (evaluación del performance de la caldera) y gestión de efluentes a la empresa FRESA. En los últimos años, cada vez más jóvenes de la zona empiezan a formarse en estos temas a partir de una Diplomatura en Energías Renovables de la Universidad de Misiones. Por último, las autoridades nacionales visitaron también las instalaciones del Grupo Las Marías, la principal productora de yerba mate y té del país, que está invirtiendo en el molino más moderno del mundo. Mendiguren recorrió la planta productiva y conversó con sus autoridades sobre sus distintos planes de inversión, tanto en el sector yerbatero, como dentro de la industria forestal, dos líneas de negocios que le permiten a la empresa exportar a más de 250 destinos del mundo. Actualmente, el Grupo, a través de sus compañías Establecimiento Las Marías y Forestal Las Marías, cuenta con cerca de 6.768 hectáreas forestadas con Pino taeda, Pino elliottii, Pino híbrido, Eucaliptus, y otras especies de alto valor. Es además uno de los principales grupos forestoindustriales de capital enteramente nacional.