Queremos compartir -en un sábado de enero, donde hay o debería haber tiempo libre- esta reflexión de Nora Bär. Agregamos al final un comentario nuestro.
ooooo
«La imagen más difundida que guardamos de los seres humanos primitivos es la de unos brutos semidesnudos, tapados con pieles de animales, capaces de comer carne cruda, e ignorantes de la higiene y de las «buenas maneras». La civilización, se supone, nos transformó en las sociedades y culturas complejas de hoy, con ciencia, tecnología, creencias y normas éticas que regulan las relaciones entre las personas.
Por eso es increíble que todavía subsista una fauna más sujeta a instintos primarios que a la reflexión, que parece carente precisamente de lo que hoy llamamos «humanidad». ¡Y en uno de los reductos más asociados con el mundo moderno: las redes sociales! Sí, este resultado insigne de avances tecnológicos impresionantes alberga en sus entrañas a hordas de bestias.
En inglés se los llama haters, «odiadores». Son individuos que reptan en las alcantarillas de las redes y foros de discusión, y cuyo único interés parece ser ejercer la burla, el descrédito, el cinismo, la mentira y la agresión gratuita.
A los de esta estirpe cualquier motivo les viene bien para odiar. Desde nimiedades hasta temas del máximo interés público. Pero en lugar de aportar una mirada constructiva, se regodean en la provocación, la ofensa personal y la crítica sin fundamento.
Están convencidos de ser superiores y, por lo tanto, habilitados para difamar, despreciar y exhibir con descaro sus diplomas de expertos en linchamientos virtuales masivos. Un comportamiento que, si lo viéramos en el mundo físico, nos espantaría.
El fenómeno no es una banalidad. A tal punto, que ya hay abundante literatura de antropólogos, sociólogos y neurocientíficos que intentan explicar por qué internet parece abrirle la puerta de su jaula al salvaje que llevamos dentro.
Es sabido que los humanos estamos biológicamente predispuestos a dividirnos en «tribus». Invitada a una jornada para debatir sobre la «neurociencia del odio» en la Universidad de Harvard, Rebecca Saxe, profesora de Neurociencia Cognitiva del MIT, y miembro asociada del Instituto McGovern, afirmó que en este tema hay más preguntas que respuestas. Por ejemplo, ¿cómo toleramos e incluso ejercemos violencia no contra un oponente armado o fuerte, sino contra extraños indefensos? ¿Hay algo mal en el cerebro que lleva a esos comportamientos? Dado que dependemos completamente del conocimiento transmitido, la pertenencia a un grupo tiene grandes beneficios, afirmó Saxe, y arriesgó que el odio no es una anomalía, sino una parte ¿normal? de la psicología humana.
Agustín Ibañez, director del Instituto de Neurociencia Cognitiva y Traslacional, comenta que las redes sociales hacen escalar exponencialmente ciertas creencias distorsionadas y sesgos contra diferentes grupos o minorías.
Y detalla una serie de trabajos que sugieren que la información falsa se expande mucho más rápido, dura mucho más y tiene más impacto que la verídica.
En un estudio publicado en Science, Vosoughi y colegas analizaron alrededor de 126.000 rumores difundidos por tres millones de personas. Las noticias falsas llegaron a entre 1000 y 100.000 contactos, mientras que las verdaderas raramente superaban las mil. Este mecanismo de distorsión escalada, si se combina con la agresión, puede expandir y consolidar conductas de violencia social, comenta Ibañez. Las redes del odio no solo impactan en el mundo real, sino que son muy difíciles de debilitar, dado que son resilientes, se reorganizan y autorreparan, y sobreviven a casi todos los mecanismos de control.
En el nivel cerebral, agrega el científico, estamos lejos de entender cabalmente las bases de la conducta violenta. Tal vez, cuando logremos hacerlo, podremos librarnos de una de las particularidades más repelentes de la condición humana…»
ooooo
No nos cabe duda que Nora Bär está en lo cierto. Cualquiera que visite los foros online de los medios que los tienen, pueden darse cuenta que se han convertido en cloacas, tapando con insultos y sarcasmos la pequeña minoría de intervenciones inteligentes.
Y no hay que atribuirlo a los odios políticos en nuestra sociedad. Las notas de la farándula, hasta las que tratan de personajes tan irrelevantes como un nieto de la reina inglesa, se llenan de agresiones gratuitas.
Lo que queremos señalar es que otro factor, antes que el odio, que siempre ha existido en todas las épocas y todas las sociedades -es parte, parece, de la naturaleza humana- nos parece decisivo en este fenómeno en las redes sociales, la impunidad. El (aparente) anonimato de las redes hace que muchos, que por pudor o por miedo nunca lo dirían en persona, «sueltan» sus frustraciones y broncas en las redes.
Esto no lo hace menos dañino, por cierto. Crean un clima en la sociedad que en circunstancias de crisis o de anomia puede manifestarse en violencia y persecución.
Durante la 100° reunión anual de la Asociación Meteorológica Americana (AMS por su nombre en inglés), realizada el pasado domingo en la ciudad de Boston, Estados Unidos, se entregaron los reconocimientos a individuos y organizaciones más sobresalientes relacionados con el clima y el agua. La nueva titular de la Unidad de Gabinete de Asesores del Ministerio de Ciencia, Tecnología e Innovación, la investigadora Carolina Vera, fue una de las especialistas premiadas.
El premio “Cleveland Abbe” de este año, que hace foco en el progreso de las ciencias de la atmósfera y su aplicación para el beneficio de la sociedad, fue otorgado a la doctora en Ciencias de la Atmósfera Carolina Vera por su “devoción desinteresada por la promoción y la comunicación de la ciencia climática a los tomadores de decisiones y partes interesadas en América del Sur y todo el mundo”.
Carolina Vera es profesora titular en el Departamento de Ciencias de la Atmósfera y los Océanos de la Facultad de Ciencias Exactas y Naturales de la UBA; investigadora principal en el Centro de Investigaciones del Mar y la Atmósfera (CIMA, CONICET-UBA) y del Instituto Franco-Argentino del estudio del Clima y sus Impactos (IFAECI). Es vicepresidente del grupo I del Panel Intergubernamental de Cambio Climático y miembro de la Academia Nacional de Ciencias Exactas, Físicas y Naturales.
Es la primera vez que la Asociación Meteorológica Americana otorga un premio de este nivel a una investigadora que trabaja en una institución fuera de Estados Unidos, Australia o Europa. “Este reconocimiento no es sólo una muestra de la calidad de nuestras investigaciones, sino también un parámetro de nuestro nivel en relación con los países desarrollados”, afirmó Carolina al respecto.
“Desde mi nueva posición en esta gestión espero poder contribuir a fortalecer el sistema científico-tecnológico y a vincularlo de una manera más profunda con los otros sectores para lograr el desarrollo socialmente inclusivo y ambientalmente sustentable de nuestro país”, expresó Vera.
(Bloomberg) — Exxon Mobil Corp. y sus socios han extraído el primer crudo comercial de Guyana, encaminando a la pequeña nación sudamericana a flujos de ingresos petroleros potencialmente enormes.
Exxon tiene una participación del 45% en el proyecto de Guyana, mientras que Hess Corp. cuenta con el 30% y la china CNOOC Ltd. con 25%. Se espera que la producción de primera fase del campo marino de Liza alcance la capacidad total de 120.000 barriles brutos de petróleo al día en los próximos meses, y el primer cargamento se venderá en varias semanas, dijeron las compañías en comunicados de prensa distintos.
El presidente de Guyana, David Granger, declaró el 20 de diciembre el “Día Nacional del Petróleo”, señalando que el país se ha convertido en un estado productor tres meses antes de lo previsto. El presidente elogió un plan gubernamental de 10 años para crear empleos relacionados con el petróleo e impulsar la economía.
El campo Liza está ubicado en el bloque Stabroek, donde los recursos recuperables se estiman en más de 6.000 millones de barriles de petróleo equivalente. Una segunda instalación de flotación, producción, almacenamiento y descarga (FPSO, de sus siglas en inglés), con una capacidad de hasta 220.000 barriles brutos de petróleo por día, se está construyendo como parte de la fase 2 de desarrollo de Liza. Se espera que al menos cinco FPSO produzcan más de 750.000 barriles brutos de petróleo diarios desde el bloque Stabroek para 2025, dijeron las compañías.
La cantidad de producción de petróleo anticipada significaría que Guyana, con una población de menos de 800.000 habitantes, podría terminar produciendo más crudo por persona que cualquier otro país del mundo. Pero cómo se beneficiará de esa riqueza sigue siendo un interrogante. El país ha creado un fondo de riqueza soberana pero ha sido lento en desarrollar regulaciones para gobernar el sector y no hay un plan establecido sobre cómo se gastará el dinero.
“Su Gobierno administrará los ingresos del petróleo con prudencia para garantizar la disciplina fiscal, la estabilidad del sector financiero, niveles sostenibles de deuda pública y baja inflación”, dijo Granger en un vídeo dirigido a los ciudadanos de Guyana.
Guyana se dirigirá a las urnas en marzo para una elección presidencial que enfrenta a la actual coalición, liderada por Granger, contra el Partido Progresista del Pueblo, que se mantuvo el poder durante 23 años hasta 2015.
Un estudio observacional de la Universidad de Harvard determinó que adoptar una dieta sana, hacer ejercicio con regularidad y evitar el sobrepeso, el alcohol y el tabaco en la edad madura se asocia con una reducción de enfermedades graves como el cáncer, las dolencias cardiovasculares y la diabetes en etapas posteriores de la vida.
Llevar un estilo de vida saludable es importante a cualquier edad. Ahora, investigadores de la Harvard T.H. Chan School of Public Health (Universidad de Harvard) han concluido que tener buenos hábitos en la cincuentena –beber poco alcohol, no fumar, hacer ejercicio y comer sano– no solo alarga la vida, sino que evita en gran medida el desarrollo de enfermedades crónicas en la vejez. El trabajo se publicó en el último número de la revista BMJ.
Los autores destacan que la esperanza de vida se ha alargado de media en todo el mundo. Pero a medida que las poblaciones envejecen, las personas suelen vivir con discapacidades y enfermedades crónicas como el cáncer, las dolencias cardíacas y la diabetes.
En cambio, los resultados de este estudio apuntan a que la adopción de buenos hábitos suma años libres de estas enfermedades en alrededor de 7,6 años para los hombres y 10 para las mujeres, en comparación con los participantes que no se cuidan.
El estudio es una continuación de otro previo de 2018 que encontró que el seguimiento de estos hábitos aumentaba la esperanza de vida en general.
Vida larga sin enfermedades graves Según Yanping Li, científica experta en nutrición y autora principal del trabajo, “el nuevo estudio proporciona una fuerte evidencia de que seguir un estilo de vida saludable en la madurez puede extender sustancialmente los años en que una persona vive libre de enfermedades”.
Para llegar a esta conclusión, los investigadores tomaron datos de dos grandes estudios realizados durante años en EE UU. Los de 73.196 enfermeras registradas en el Nurses’ Health Study y los de 38.366 profesionales sanitarios masculinos del Health Professionals Follow-up Study. Todos ellos, estaban libres de cáncer, enfermedad cardiovascular y diabetes en el momento de la inscripción.
Los autores utilizaron cinco factores de estilo de vida de bajo riesgo –no fumar, peso saludable, al menos 30 minutos de actividad física diaria, consumo moderado de alcohol y una dieta de buena calidad– para calcular una puntuación de estilo de vida saludable.
Los participantes fueron evaluados regularmente durante un período de más de 20 años. Durante este tiempo, se registraron nuevos diagnósticos y muertes por cáncer, enfermedad cardiovascular y diabetes tipo 2.
Después de ajustar la edad, el origen étnico, el historial médico familiar y otros aspectos potencialmente influyentes, los investigadores encontraron que las mujeres que practicaban cuatro o cinco de los hábitos saludables a los 50 vivían en promedio 34,4 años más libres de diabetes, enfermedades cardiovasculares y cáncer, en comparación con 23,7 años saludables entre las mujeres que no practicaban ninguno de estos hábitos.
Por su parte, los hombres que practicaban cuatro o cinco buenos hábitos a la edad de 50 años vivieron 31,1 años libres de enfermedades crónicas, en comparación con 23,5 años entre los que no practicaron ninguno. Además, los fumadores empedernidos y los hombres y mujeres obesos tenían la menor esperanza de vida libre de enfermedades.
Promover hábitos saludables Los autores resaltan que se trata de un estudio observacional, así que no se puede establecer la causa. También existen algunas limitaciones, tales como confiar en los hábitos de estilo reportados por los propios participantes, y que los integrantes sean profesionales de la salud en su mayoría de raza blanca, por lo que los resultados podrían no aplicarse de manera más general, advierten.
No obstante –añaden– los datos cubrieron un gran número de personas con una evaluación detallada y repetida de los factores del estilo de vida durante un largo período de seguimiento.
Los investigadores concluyen que “las enfermedades crónicas tienen un alto costo en los sistemas de salud”. Por ello, “se deberían promover estilos de vida más saludables”.
Para atraer nuevas inversiones por parte de empresas que ya están instaladas en el país, y -eventualmente, de futuras radicaciones- el Gobierno flexibiliza parcialmente las restricciones cambiarias para transferir sus utilidades al exterior. Es decir, lo hace menos gravoso.
La Comunicación «2» 6869 del Banco Central publicada ayer jueves a la tarde establece el monto total de transferencias por utilidades y dividendos que realice una empresa al exterior no podrá superar el 30% del valor de los nuevos aportes de inversión extranjera directa en empresas residentes ingresados a partir de la fecha.
Esto no significa que las empresas extranjeras no pueden transferir ganancias a sus casas matrices o a accionistas no residentes. Pero si deciden hacerlo, sólo podrán conseguir los divisas en el mercado oficial al precio de (aproximadamente) $ 60 por dólar hasta un 30% del monto de nuevas inversiones que hagan.
Si bien el Código Alimentario Argentino prohíbe la venta de leche no pasteurizada para consumo desde 1963, estudios del sector indican que es una práctica registrada en todas las cuencas lácteas del país. Se estima que el 15 % del mercado nacional de leche pertenece al sector informal, categoría que comprende a los circuitos cortos de producción y consumo de leche fluida sin pasteurizar. El problema no es sólo argentino, por supuesto. En países en vías de desarrollo como los de América Latina, se calcula que el mercado informal alcanza el 80 %.
Frente a esta problemática, especialistas del Instituto de Investigación y Desarrollo Tecnológico para la Agricultura Familiar del INTA (IPAF) Región Pampeana y de la UBA desarrollaron un equipo –el primero del país– que envasa leche fluida, la pasteuriza y la enfría al punto de garantizar condiciones óptimas de inocuidad para su comercialización directa en las zonas de proximidad. La novedad del sistema radica en que la pasteurización se realiza dentro del envase utilizado para la comercialización.
Marcos Hall, director del IPAF Región Pampeana, destacó el impacto productivo y social de la innovación: “Comprende desde el trabajo de las familias, que son las adoptantes directas de la tecnología, hasta los consumidores de leche, sumado a una articulación de actores públicos y productivos, cuyas agendas de trabajo se alinearon en respuesta a una demanda social de primera necesidad, como es el acceso a la leche”.
El consumo de leche sin una pasteurización controlada puede provocar el contagio de enfermedades zoonóticas como tuberculosis y brucelosis, y la ingesta de escherichia coli a través de alimentos, una de las causas del Síndrome Urémico Hemolítico en poblaciones de alto riesgo, como niños menores de cinco años.
Sergio Justianovich, investigador del IPAF Región Pampeana, detalló que el sistema promueve la humanización del trabajo y la mayor eficiencia de los sistemas productivos lácteos regionales. “Como innovación, brinda la posibilidad de formalizar la producción existente y asegurar la calidad e inocuidad de la leche obtenida, a través de un equipo que tiene costos operativos muy competitivos frente a los costos de elaboración de otros productos”, explicó.
Diseñada como alternativa para la pequeña escala, la tecnología fortalece las cadenas cortas de agregado de valor con beneficios para productores y consumidores, debido a que un litro de leche comprada en origen cuesta hasta un 40 % respecto del precio de góndola. En tanto, el productor obtiene un 400 % más de rentabilidad que si la vende a la industria.
De acuerdo con Edurne Battista, quien también trabaja como investigadora en el IPAF Región Pampeana, la innovación “contribuye a la producción de alimentos sanos dentro de las economías regionales, al tiempo que genera condiciones para descentralizar las producciones y fomenta mercados de proximidad más eficientes desde el punto de vista de la calidad de los alimentos y desde la dimensión energética”.
Diseñada como alternativa para la pequeña escala, la tecnología fortalece las cadenas cortas de agregado de valor con beneficios para productores y consumidores.
Innovación única en el país
Basado en el principio de funcionamiento de la pasteurización en bolsa, el equipo desarrollado por el INTA y la UBA fue proyectado para circuitos de comercialización en los que la leche recorre cerca de 20 kilómetros entre el productor y el consumidor, cuando la media para un circuito de cadena larga es de 750 kilómetros.
“La pasteurización en bolsa ha sido experimentada y validada en diferentes partes del mundo, impulsada por el Departamento de Lechería de FAO desde el año 2000, bajo la denominación sistema de pasteurización Milkpro”, especificó Justianovich.
A diferencia de los equipos convencionales que pasteurizan la leche cruda en un módulo y después la envasan en otro, el modelo patentado por el INTA y la UBA invierte los pasos –envasa y pasteuriza ya leche envasada–, en una secuencia que evita la recontaminación después de la pasteurización.
Debido a que es la primera vez que se utiliza este principio en el país, tanto el equipo como el proceso representa una novedad y requirieron la aprobación de la Comisión Nacional de Alimentos (CONAL) a fin de validar el método de pasteurización en base a lo indicado en el Código Alimentario Argentino (CAA).
El modelo patentado por el INTA y la UBA envasa y pasteuriza ya leche envasada, en una secuencia que evita la recontaminación después de la pasteurización.
Fernando Ocampo, investigador del IPAF, indicó que el modelo presentado es también una alternativa tecnológica novedosa para la producción láctea a baja escala, si se tiene en cuenta que la mayoría de los equipos que se comercializan para envasar y pasteurizar leche están proyectados para volúmenes de procesamiento de mediana y gran escala.
Por su parte, Gervasio Cieza, técnico de la agencia de extensión rural del INTA en San Vicente –Buenos Aires–, destacó que el sistema tiene una capacidad de procesamiento de 20 litros por ciclo por hora, definida a partir de una serie de talleres realizados en establecimientos lácteos junto con los productores. En tanto, los equipos de menor capacidad de procesamiento disponibles en el mercado nacional tienen un potencial de trabajo de 300 litros por hora.
El antecedente más cercano al sistema desarrollado es un prototipo construido por el Comité Ejecutivo de Desarrollo e Innovación Tecnológica (CEDIT) en Misiones, que se adapta a la pequeña escala (10 litros por ciclo) y funciona de manera convencional.
A diferencia de su antecedente, el equipo desarrollado por el INTA y la UBA incorpora aspectos de inocuidad en la etapa de envasado y mejora la calidad de la leche, a partir de la posibilidad de automatizar esta etapa.
Gabriela De Noya, investigadora del Instituto de Tecnología de Alimentos del INTA, explicó que las evaluaciones de calidad del producto indicaron que la leche es apta para consumo y que, luego del tratamiento de pasteurización, su Vida Útil Sensorial es de 8,5 días y la Microbiológica de siete días, parámetros que exceden el límite estipulado por el CAA que limita su consumo al día cinco. “Este resultado se obtuvo en leche almacenada a 8 °C, temperatura más desfavorable admitida por el CAA”, especificó De Noya.
Por estos días, se avanza en la firma de un convenio de transferencia con dos pymes de Entre Ríos –pertenecientes a la Cámara Argentina de Fabricantes de Maquinarias para la Agricultura Familiar– que construirán los primeros equipos comerciales.
Manual de funcionamiento
El sistema está compuesto por tres módulos –de ensachetado, pasteurizado y enfriado, respectivamente–, conectados por cuatro canastos que contienen las bolsas de polietileno preformadas con el objetivo de facilitar su manipulación durante el proceso.
El procedimiento requiere el trabajo de una persona y consiste en dosificar la leche cruda en las bolsas de polietileno, a través de la puesta en funcionamiento de una bomba que dosifica un litro desde el tanque hasta el envase. Los envases son inmediatamente sellados, tratados a 63 °C durante 30 minutos en un pasteurizador batch.
Luego, se colocan en un batch de 40 litros de agua a 16 °C durante cinco minutos para bajar la temperatura a 30 °C y, finalmente, son enfriados durante 25 minutos más en otro batch de iguales condiciones que el primero, pero con el agregado de 8,5 kilos de hielo. A continuación, se conservan en la heladera a la temperatura de referencia (8 °C) indicada por el CAA.
El tamaño de los módulos (ancho, largo y alto) y su interfase (acciones necesarias asociadas con el uso) están diseñados para ubicarse en una mesada convencional de una sala de procesamiento de alimentos.
En el diseño, también se tuvo en cuenta que sea de fácil limpieza y, bajo esta premisa, la única parte que está en contacto directo con la leche es la unidad utilizada para el llenado del sachet. “Este último aspecto repercute en una relación muy baja entre litros de leches procesados y efluentes generados (1/0.1 litros)”, valoró Raquel Ariza, investigadora de la carrera de Diseño Industrial de la UBA.
El sistema está diseñado para poder construirse en talleres especializados en el rubro alimenticio/lácteo, con materiales y mano de obra local, y uso de partes estándar, a fin de disminuir los costos de fabricación y logística y de facilitar las reparaciones en el lugar.
Ayer, AgendAR comentaba una noticia: a más de un mes del cambio de gobierno, el INTA permanece sin sus nuevas autoridades. Pero por suerte eso no impide que sus técnicos sigan trabajando.
Ginebra, Suiza — Cerca de cincuenta jefes de Estado, de gobierno y personalidades mediáticas de todo el mundo participarán la semana próxima en el Foro Económico Mundial de Davos (Suiza). Entre ellos estarán el presidente estadounidense Donald Trump y la activista sueca por el clima Greta Thunberg. No concurrirá el ministro de Exteriores de Irán, Mohamad Javad Zarif, al que se esperaba, por la tensión con Estados Unidos. Tendrá 2.800 participantes reunidos en esta estación de esquí suiza, protegida para la ocasión con grandes medidas de seguridad.
La 50ª edición del Foro, entre el 21 y el 24 de enero, tiene a la sustentabilidad como el tema principal. Aparece por primera en el informe que elabora el grupo de expertos que dirige el Foro de Davos: las principales preocupaciones están todas relacionadas con cuestiones medioambientales: el cambio climático, la pérdida de biodiversidad, y accidentes a evitar como los derrames de petróleo y la contaminación radiactiva.
Estarán en Suiza el viceprimer ministro chino, Han Zheng, la canciller alemana Angela Merkel, el presidente ucraniano Volodomir Zelenski, la presidenta de la Comisión Europea, Ursula von der Leyen, el presidente de Ecuador, Lenín Moreno, el de Colombia, Iván Duque, y el de España, Pedro Sánchez.
No estará en cambio el primer ministro británico, Boris Johnson, quien en 2013 calificó el foro de “constelación de egos con gigantescas orgías mutuas de adulación”. Sí acudirá el príncipe Carlos de Inglaterra.
La actitud argentina ante Davos en este siglo estuvo dominada por la política interna: Néstor Kirchner consideró que ese Foro, con la pretensión de marcar agenda, era un símbolo del neoliberalismo de los años 90. No participó ninguno de sus funcionarios durante su gobierno, ni en los de Cristina.
Mauricio Macri buscó contrastar y no se perdió ninguna de las conferencias. En la primera que le tocó como presidente, en enero de 2016, viajó junto al opositor Sergio Massa. En realidad, Davos es una gigantesca ocasión de relaciones públicas a escala global. Pero las relaciones públicas son importantes. Ahora le llaman «networking».
Así, Alberto Fernández adoptó una posición intermedia. Decidió enviar a Guillermo Nielsen, presidente de YPF, en una doble representación. Reemplazará al presidente Fernández en un panel y el mismo será disertante en otro.
Según la periodista Silvia Naishtat, la confirmación de Nielsen definió la asistencia de algunos empresarios argentinos. Serán de la partida Alejandro, Marcos y Juan Martín Bulgheroni, Eduardo Elsztain, Saúl Zang, Martín Eurnekian y Sebastián Bagó hijo.
(La primera parte de esta nota está aquí, y la segunda aquí)
3. Fabricantes de pesadillas
¿Cuándo empezamos a provocar deliberadamente este tipo de fenómeno, las tormentas de fuego? No hace mucho. La primera intencional la Luftwaffe la provocó, a modo de experimento, la noche del 14 de Noviembre de 1940 una noche glacial, despejada y sin viento en la ciudad inglesa de Coventry.
El aire helado y quieto potenció la diferencia de temperaturas entre la base de los incendios y la atmósfera, y por ende la velocidad de las térmicas en ascenso, y por ende el vacío generado sobre el centro de Coventry, que generó vientos arremolinados que fogonearon y unificaron rápidamente miles de focos de fuego en una térmica única. Esos vientos a nivel del suelo levantaban camiones y personas del piso y los arrojaban por el aire al alto horno que se había organizado en el “downtown Coventry”, en cercanías de la catedral gótica. A los muchachos de la aviación de Göring las cosas le salieron mejor de lo que esperaban: mataron a 20.000 británicos en 12 horas.
Winston Churchill recorre las ruinas ya frías de Coventry en noviembre de 1940
También clasifican como tormentas de fuego algunas devoluciones de cortesías del Bomber Command de la RAF, que tenía sus propios meteorólogos, deseosos de reproducir, con errores y aciertos, lo que habían visto en Coventry. Sin embargo su jefe, Arthur “Bomber” Harris, descubrió que no es nada fácil crear tormentas de fuego, incluso en ciudades viejas llenas de edificación de madera, de vehículos con tanques de nafta, de estaciones de servicio y de arsenales, un mix mucho más combustible que los bosques.
Harris –aunque trató con obstinación y las calcinó con incendiarias- nunca logró crear verdaderas tormentas de fuego en Berlín, en Munich o en el cinturón industrial de la cuenca del Ruhr. Se requiere de aprovechar o provocar condiciones atmosféricas límites, y no sólo de temperatura absoluta sino en la cantidad de calor generada, y sobre todo de su concentración en el espacio y el tiempo.
Dos aciertos de Harris fueron las tormentas de fuego perfectas que provocó en las ciudades alemanas de Hamburgo (el 27 de julio de 1943, 46.000 muertos), y la de Dresden (el 13 y 14 de febrero de 1945, 25.000 muertos). Hasta agosto del ’45, Harris fue el mejor fabricante de pesadillas nocturnas de Europa.
También fue un acierto –pero de un tercer aviador, el general Curtis Le May- otra tormenta de fuego de 3 días de duración, consecuencia del estallido de la bomba atómica “Little Boy” sobre Hiroshima el 6 de agosto de 1945. Ese incendio masivo mató al menos a 55.000 personas de las 135.000 que –se estima- murieron en aquel bombardeo con una sola bomba.
Los números son inciertos: se cree que en Hiroshima 80.000 personas murieron inmediatamente por los efectos radiantes y termomecánicos del fogonazo inicial de Little Boy: irradiación con infrarrojo, luz visible, rayos X, gamma y neutrones, onda de choque y derrumbe de estructuras. Sin embargo, la cifra de quemados y asfixiados subsiguientes de Hiroshima es una trabajosa reconstrucción del censo urbano. Nunca se la pudo verificar en términos forenses, por la desaparición de casi todos los cadáveres.
Es que en la base de las “térmicas” ascendentes, los adoquines se derriten y arden materiales normalmente considerados no muy combustibles, como el asfalto y el aluminio. Ese calor es más que suficiente para volatilizar todos los tejidos humanos, incluidos huesos y dientes, y en Hiroshima hubo más de 1000º C. El pirocúmulonimbo provocó incluso lluvia (negra, densa como sopa y de yapa, radioactiva). Ésta fue la que apagó la tormenta de fuego. Lo cual es una rareza: los pirocúmulonimbos no provocan lluvias.
La peor “casi tormenta de fuego”, sin embargo, fue la que generaron 270 bombarderos B-29 cuando derramaron 1665 toneladas de municiones incendiarias (napalm y fósforo blanco) sobre Tokyo la noche del 9 al 10 de Marzo de 1945. Esa decisión de Le May mató entre 75.000 y 200.000 habitantes de la capital japonesa, cifras todavía debatidas por el mismo problema forense de cadáveres volatilizados que luego se vio en Hiroshima. Lo definitivo es que las estimaciones en el rango superior superan la de las víctimas sumadas de los ataques nucleares ulteriores y sucesivos de Hiroshima y Nagasaki.
Los expertos discrepan sobre el éxito de Le May en Tokyo. Los puristas, como Samuel Glasstone y Philip Dolan, dicen que hay cuatro condiciones de mínima para armar una verdadera tormenta de fuego urbana: 1) al menos 40 kg. de material combustible por m2 de terreno, 2) un área encendida de no menos de 1,3 km2 que además tenga 3) al menos la mitad de las estructuras encendidas simultáneamente, y por último, 4) vientos de superficie menores de 12 km/h. La dificultad de reunir estos cuatro requisitos explica, según el físico David Hafemeister, que sólo el 5% de los intentos de la aviación aliada de provocar tormentas de fuego en Alemania haya tenido éxito.
El rol del viento de superficie, entonces, es ambiguo: sin duda, fogonea cualquier incendio aportándole oxígeno, pero a partir de los 11,5 km/h. parece desorganizar la formación de las células de convección típicas de una tormenta de fuego. Y estas células, cuando se arman, hacen la diferencia.
Significativamente, el bombardeo de Tokyo, llamado “Operación Meetinghouse” por Le May, no llegó a tanto. Aquella noche nevada en Tokyo fue distinta de la helada con calma chicha que tanto había ayudado a Göring en Coventry. En la bahía de Edo la noche del 9 al 10 de marzo soplaban vientos de superficie de hasta 45 km/h desde el mar, y desarticularon la unificación de los focos de incendio bajo la “chimenea” de una única térmica organizada.
Las fotos aéreas de Tokyo el 10 de mayo de 1945 muestran 4 enormes focos dispersos, no uno solo, y grandes plumas de humo sopladas tierra adentro por el viento que llega desde la bahía de Edo. La imagen no parece en absoluto la de una tormenta de fuego.
Tormenta o no, las miles de térmicas desorganizadas fueron lo suficientemente violentas como para que el olor a carne humana asada hiciera vomitar a los tripulantes, que volaban a menos de 3000 metros para afinar la puntería, y también para que algunos B-29 se desequilibraran por el embate de esas corrientes ascendentes y cayeran a tierra. Parece haber sido el destino de algunas de los 27 superfortalezas volantes que en la mañana del 10 no regresaron a sus bases de Saipán y Tinian.
En cuanto al ataque sobre Nagasaki, el 9 de agosto, la bomba “Fat Man”, pese a ser al menos 6 kilotones más poderosa que la de Hiroshima, no logró más de 40.000 muertos. Eso sucedió por la interposición de nubes bajas (la bomba explotó a 580 metros de altura) y de una colina. Ambos factores atajaron parte del fogonazo de infrarrojo y luz, lo que evitó la ignición simultánea de todo el casco urbano. Para frustración de Le May, tampoco en esa ocasión hubo tormenta de fuego.
En suma, que incluso a 3 notables hijos de puta como Göring, Harris y Le May les resultó difícil generar tormentas de fuego sobre urbes mucho más combustibles que cualquier bosque natural. Y eso valió incluso con el uso de un arma nuclear. En contraste, en Australia a fin de año ardían 18 tormentas de fuego naturales simultáneas, como no las podrían haber generado estos tres genocidas sumando intenciones y medios tecnológicos.
Y es que los humanos todavía no inventamos fenómenos meteorológicos nuevos: a lo sumo podemos copiar los naturales. Lo que sí hemos logrado generar, a fuerza de recalentar la atmósfera y los mares desde 1780, es establecer nuevas condiciones climáticas en que estas cosas suceden solas y con frecuencia cada vez mayor.
Si hay un indicador de hacia adónde va el mundo es que los fuegos australianos son espontáneos. Aquí en Sudamérica los incendiarios de bosques rarísimamente van presos. Más bien, pese a la legislación, son alentados por intendentes, gobernas, policías y jueces para ampliar la frontera agropecuaria, el PBI nacional y/o la recaudación impositiva local. Independientemente de quién gobierne, si dependiera del estado y no del termómetro, se sembraría soja y criarían vacas hasta en la base antártica Marambio.
Así desapareció “El Impenetrable” chaqueño, así el bosque andinopatagónico pasó de de 5 a 2 millones de hectáreas durante el siglo XX, pese al paraguas legal de la Administración de Parques Nacionales. Es el más robusto, por federal, también el más odiado por “las fuerzas vivas” locales, y alcanza 1,5 millones de hectáreas de árboles.
Sin embargo, cuando el estado nacional se desvanece, los árboles también. Parte de la tormenta de fuego de Villa La Angostura, en 1999, no tuvo por culpable al habitual chacarero pobre que necesita robarle una o dos hectáreas a las lengas para poner 5 ovejas más (pero luego perdió el control del fuego). Esa tormenta –dijo Ivandic- la desataron nuevos actores: cretinos que saben que el bosque quemado produce gírgolas a pasto, hongos por los cuales los restoranes finolis pagan sin hacer preguntas.
En contraste, los australianos conforman una sociedad menos anómica: no hay pequeños incendiarios para poner presos por quemar el país, ni un presidente Jair Bolsonaro, como en Brasil, instando a los productores a pegarle fuego a la selva.
Hay, eso sí, una sociedad con un nivel de vida altísimo gracias a las exportaciones de carbón, con una huella de carbono descomunal para tan pocos habitantes, y que se cree muy protectora de la naturaleza por tener granjas eólicas y solares y 57 parques nacionales, pero, eso sí, ninguna central nuclear. Si costó 3 años de lucha política por parte de las autoridades nucleares australianas para que sus compatriotas aceptaran reemplazar su viejo reactor inglés HIFAR por el OPAL, de INVAP. Y desde 2006, el citado OPAL ya permitió el diagnóstico precoz y/o la terapia de unos 450.000 australianos con enfermedades circulatorias y oncológicas severas.
Dígale al australiano tipo que, según todas las agencias científicas de las Naciones Unidas, en Chernobyl la radiación mató a 31 bomberos y otros 20 casos dudosos, y que en Fukushima, a 9 años de la catástrofe, todavía no murió ningún irradiado. El aussie promedio se le va a reír en la cara. Añada que un pellet de cerámica de uranio enriquecido al 3,4% chico como una quinta parte de una pila AAA tiene tanta energía térmica potencial como 1 tonelada de bauxita o lignita, pero no emite carbono.
En este pellet de cerámica de dióxido de uranio enriquecido al 3,4% hay tanta energía térmica como en una tonelada de carbón… pero con cero emisiones de dióxido de carbono.
Dígale que, en contraste con Chernobyl y Fukushima, en el “Sábado Negro” del verano de 2009 en Australia murieron 180 de sus propios compatriotas, en buena medida porque 1/3 de la electricidad mundial se sigue fabricando a carbón, en parte gracias a lideres como Donald Trump, Scott Morrison, Angela Merkel, los antinuclearistas del carbonífero, y a sus votantes. Señálelo cuando diga esto.
Siendo los australianos gente de pocas palabras, la mayor parte le responderá con un dedo medio enarbolado y otros le llenarán la cara de dedos. Pero algunos se quedarán dudando.
Es interesante que estas cosas ahora se empiezan a debatir públicamente en los medios de Sydney y Canberra, mientras respiran humo como jamás antes. Y el que todavía van a respirar…
Lo dicen los Redondos; “El futuro llegó hace rato”. Y lo confirma el Martín Fierro: “No hay nada como el peligro / pa’ refrescar a un mamao”.
Ayer 15 de enero Vladímir Putin ofreció su discurso anual ante el Consejo de la Federación y la Duma Estatal, las dos cámaras de la Asamblea Federal (el Parlamento ruso). En su intervención, además de varias medidas de carácter social, el presidente propuso para discusión una serie de enmiendas constitucionales.
El mandatario subrayó que considera estos cambios «bastante razonables e importantes para el desarrollo de Rusia como un Estado social legal» y propuso celebrar un referéndum sobre el paquete de enmiendas constitucionales propuesto y, «de acuerdo con sus resultados, tomar una decisión final».
Los cambios propuestos son -en lo que se refiere a la estructura del poder político:
Transferir del presidente al Parlamento la potestad de aprobar las candidaturas del primer ministro y miembros del Gobierno; otorgar al Parlamento el derecho de aprobar, a propuesta del jefe de Gobierno, a todos los viceprimeros ministros y ministros federales. El presidente mantendrá el derecho de destituir al primer ministro, sus viceministros y otros ministros si pierden su confianza o realizan sus funciones de manera incorrecta.
«Fijar a nivel constitucional los requisitos obligatorios para las personas que ocupan cargos críticos para garantizar la seguridad y la soberanía del país» (dirigentes regionales, parlamentarios, ministros, jefes de organismos federales y jueces). En particular, prohibir la ciudadanía extranjera o el permiso de residencia en el extranjero para estas categorías de funcionarios públicos.
Y los candidatos a la Presidencia rusa deberán tener una residencia permanente en Rusia durante al menos 25 años y no contar con la ciudadanía o permiso de residencia de un país extranjero.
Limitar la aplicación del derecho internacional. «Los requisitos del derecho y los tratados internacionales, así como las decisiones de los organismos internacionales, pueden actuar en el territorio de Rusia solo en la medida en que no impliquen restricciones a los derechos y libertades del hombre y el ciudadano, y no contradigan nuestra Constitución», explicó Putin.
Después de los anuncios, el hasta entonces primer ministro -y el hombre más cercano a Putin en las dos décadas de su gobierno- Dmitri Medvédev, anunció que considera apropiado presentar la dimisión del Gobierno con todos sus miembros.
«Estas enmiendas, cuando se adopten, […] supondrán cambios significativos no solo en varios artículos de la Constitución, sino también en el equilibrio del Poder Ejecutivo, Legislativo y Judicial», señaló el primer ministro en funciones, agregando que «en estas condiciones es correcto presentar la renuncia de todos los miembros».
Putin agradeció al Gobierno de Medvédev por su trabajo y en respuesta anunció su intención de crear el cargo de vicepresidente del Consejo de Seguridad y ofrecérselo al primer ministro en funciones.
A continuación, Putin propuso al jefe del servicio tributario, Mijaíl Mishustin, como candidato para encabezar el nuevo Gobierno. «Vladímir Putin sostuvo una reunión de trabajo con Mijaíl Mishustin y lo invitó a asumir el cargo de primer ministro. Con el consentimiento previo, presentó su candidatura […] para la consideración de la Duma Estatal», indicaron desde el servicio de prensa del Kremlin.
La Cámara Baja del Parlamento ruso considerará el nombramiento de Mishustin al puesto este jueves.
Sorpresivos como han sido estos anuncios -y sin pretender conocimiento de las internas en el Kremlin- en AgendAR nos resulta evidente que estas medidas recogen reclamos de la oposición -mayor influencia del Parlamento en los cargos principales del Estado- y, más importante, de la población -incluyen la indexación de las jubilaciones, por ejemplo. Pero, sobre todo, reflejan la afirmación del tradicional nacionalismo ruso y su desconfianza ante toda globalización con sesgo occidental.
Esta nota de La Nación no puede considerarse información «neutra». El diario de la familia Mitre tiene una antigua y explícita relación con las organizaciones que nuclean a los más importantes productores y propietarios rurales. Pero es cierto que la demora en el nombramiento de las autoridades del INTA indica que todavía deben definirse algunas políticas del área. Como sucede en la CNEA, NA-SA y ARSAT. Reproducimos la nota:
Se cumplió un mes de la llegada de Luis Basterra como ministro de Agricultura de la Nación, pero todavía continúa acéfala la conducción de un organismo clave ligado a esa cartera. Se trata del Instituto Nacional de Tecnología Agropecuaria (INTA).
El INTA tiene 350 oficinas a nivel país entre agencias, estaciones experimentales y centros de investigación. Suma un plantel de 7000 empleados y su presupuesto total, que es idéntico al vigente al 31 de diciembre pasado, es de $ 7500 millones más un refuerzo de otros $ 130 millones que se logró conseguir.
El último presidente del organismo fue Juan Balbín, cuyo mandato finalizó con Mauricio Macri. Si bien desde Agricultura dijeron que «no hay designaciones nuevas», trascendieron los nombres de Mariano Garmendia y Susana Mirassou como posibles presidente y vicepresidenta, respectivamente.
Garmendia es un tucumano que fue director del INTA Famaillá y en la actualidad se desempeña como secretario de Innovación y Desarrollo Tecnológico del gobierno de Tucumán. Es ingeniero agrónomo y se especializó en agronegocios y en desarrollo local/territorial. En tanto, Mirassou es en la actualidad directora nacional de Planificación del INTA. Ingeniera agrónoma, es experta en temas de evaluación económica de la conservación del suelo.
La designación de la conducción del organismo no parece estar exenta de tensiones ya que se escucharon y siguen en danza otros nombres.
«Desde La Cámpora intentan imponer la figura de Francisco Anglesio, que ya estuvo a cargo del organismo durante la segunda presidencia de Cristina Fernández de Kirchner, mientras que Gabriel Delgado, exsecretario de Agricultura, impulsa a Garmendia», contó una fuente interna del INTA, que pidió preservar su identidad. Delgado sonó fuerte para ocupar el cargo que finalmente quedó en manos de Basterra. Ahora estaría asumiendo en una agencia que reorganizará la Unidad para el Cambio Rural (UCAR), que cuenta con frondosos créditos internacionales.
Agregó que «para los trabajadores del INTA el mejor aspirante a la presidencia es Héctor Espina (exdirector nacional), por el conocimiento que tiene del organismo y porque durante la gestión de Cambiemos fue quien resistió el ajuste que se quería imponer desde el Ministerio de Modernización. El problema de Espina es que no cuenta con padrinos políticos que impulsen su candidatura».
Algunas fuentes señalan que Anglesio se habría quedado en el camino en la carrera por volver a la conducción del organismo. En su suerte habría influido Basterra, un hombre que supo ser vicepresidente del INTA, además de diputado nacional por Formosa.
Con Balbín, el último presidente del INTA con el gobierno anterior, pasa algo fuera de lo común. Presentó su renuncia el 11 de diciembre pasado pero no tuvo respuestas a la misma. Nunca salió la aceptación oficial a su dimisión. Estuvo yendo igual al organismo para la firma de convenios ya aprobados y para realizar firmas protocolares.
Sin las definiciones para presidente y vicepresidente del organismo, Carlos Parera, actual director nacional que entró por concurso sigue haciendo la conducción operativa del INTA. Firma disposiciones que son la base para el funcionamiento operativo. El director nacional puede disponer para firmar cosas ligadas al presupuesto hasta $499.000. Luego se requiere una resolución del Consejo Directivo cuya cabeza es justamente el presidente del INTA.
«Parera pilotea lo operativo y funcional, pero estamos sin conducción porque falta el funcionario designado por el Ejecutivo», contó otra fuente del organismo.
En tanto, otra fuente consultada señaló que la acefalía está ralentizando la operatoria de los técnicos en los territorios donde desarrollan sus tareas y mantiene congelados todos los aspectos presupuestarios, dado que «no hay firma para respaldar decisiones de direccionamiento de partidas. Tampoco hay nadie que defienda los intereses del organismo en la formulación del nuevo presupuesto 2020».
Entre las tareas que ejecuta el INTA está el ProHuerta, un programa destacado por el ministro de Desarrollo Social, Daniel Arroyo, para fortalecer la lucha contra el hambre en la Argentina, dada la asistencia que se brinda desde el Estado a productores de subsistencia en el interior y a la agricultura periurbana. «Por la falta de presidente, en la mesa del plan Argentina Sin Hambre no hay nadie de INTA, pese a todo el trabajo que desde el organismo hemos hecho con el ProHuerta en tantos años de ejecución», lamentaron desde el INTA.
Un técnico consultado señaló que la indefinición «genera incertidumbre», aunque hay «esperanzas a que la mirada hacia el INTA sea con más presupuesto y mejores condiciones».
Ministro de Agricultura, ing. agrónomo Luis Basterra
Tras el lanzamiento de «Sophie» y «Marie», que la compañía Satellogic realizó ayer miércoles a la madrugada. la empresa argentina -especializada en la comercialización de soluciones e imágenes satelitales- dará un nuevo paso hacia la creación de su propia red de satélites.
Si sus planes se cumplen, esta «constelación satelital» estará integrada, a fines del 2021, por noventa microsatélites que -trabajando en equipo- serán capaces de cartografiar toda la superficie terrestre en menos de una semana.
«Con estos dos módulos tendremos ya una constelación de diez satélites en funcionamiento operando desde una órbita baja, a alrededor de 500 kilómetros sobre la superficie de la Tierra. Y para el resto del año tenemos planificado el lanzamiento de otros catorce satélites», adelantó Emiliano Kargieman, CEO y fundador de Satellogic. Según Kargieman, el objetivo de la empresa en el largo plazo «es armar una red integrada por alrededor de 300 satélites, lo que nos permitirán obtener imágenes de alta resolución de cualquier punto ubicado sobre la superficie de la Tierra y contar con ellas prácticamente en tiempo real».
Tanto «Sophie» como «Marie» pesan alrededor de 40 kilogramos y fueron íntegramente diseñados e integrados por los ingenieros de la empresa, en una «fábrica» instalada en Montevideo, Uruguay. Cada equipo que llega a su órbita espacial definitiva cuenta con varios instrumentos de observación tales como una cámara multiespectral de un metro de resolución y una cámara hiperespectral de 30 metros de resolución, además de todo los necesario para hacer la transmisión de telemetría y datos».
Monitoreo. Los ingenieros de la compañía combinan y procesan las imágenes actualizadas de la superficie terrestre enviadas por los satélites y luego comercializan esos datos.
¿A quienes le interesan? «A todo el mundo», detalló Kargieman. «Es información muy útil para poder hacer monitoreo de plantaciones agrícolas o de explotaciones forestales. Pero también puede usarse para revisar la infraestructura vial o para evaluar daños en la misma. Y esas imágenes se pueden emplear para mejorar el negocio de la minería o para temas de seguridad y tráfico de, por ejemplo, fronteras entre países, o control de de pesca en zonas marítimas».
También podrían emplearse para predecir, seguir y analizar diversas catástrofes ambientales. «En el caso de los incendios, como los de Australia ahora o los de Brasil, hace unos meses, las capturas de nuestros satélites sirve para hacer monitoreo y dar soporte general. Podemos aportar datos detallados tanto en el momento de evaluar el problema, como cuando las autoridades planifican como encarar la resolución del mismo. Incluso -luego del evento ambiental- la tecnología satelital es ideal para controlar los eventuales procesos de remediación», contó el experto.
Justamente, según Kargieman, «cuando fundamos la empresa una de nuestros propósitos centrales era colaborar, con datos actualizados, en la toma de decisiones que sirvan para enfrentar posibles desastres ambientales como los que causa por el cambio climático».
Según sus directivos, la compañía ya tiene varios clientes internacionales, pero todavía ninguno local. «Estamos hablando con varias empresas y gobiernos de diferentes estamentos, pero todavía no tenemos ningún acuerdo. Claro que, por la geografía y la economía de nuestro país, sería muy útil para Argentina disponer de este tipo de servicios satelitales».
Nombres y homenajes Los satélites llegaron a su órbita programada en la cabeza de un vector chino: el cohete bautizado «Larga Marcha II». «Pero siempre estamos analizando otros proveedores posibles de este «viaje al espacio», con empresas como Space X o lanzadores rusos».
Los dos dispositivos a punto de ser lanzados llevan nombres con historia: ambos fueron bautizados para honrar a Sophie Germain, matemática y física y Marie Curie, física y química. De hecho, Satellogic está en pleno desarrollo de una «tradición» para homenajear -con sus dispositivos- a mujeres importante que quedaron en la historia de la ciencia. Así, en 2018 envió al espacio a los satélites «Ada» y «Maryam», equipos que fueron nombrados en recuerdo de dos matemáticas: Ada Lovelace y Maryam Mirzakhani. (Por Enrique Garabetyan)
El promedio anual de suba de precios estimado por el INDEC en 2019 fue el mayor desde 1991, cuando se ubicó en el 84%, un año después de que la hiperinflación dejara un alza de precios del 1.343,9%.
En los últimos doce meses, los precios que crecieron por encima de este nivel general fueron salud, 72,1%; comunicaciones, 63,9%; equipamiento y mantenimiento del Hogar, 63,7%; y alimentos, 56,8%.
El desafío del gobierno de Alberto Fernández será disminuir la inflación al mismo tiempo que trata de reactivar la economía. El dato cierto del que puede partir es que la caída de la actividad no moderó la inflación. Al contrario.
Aunque lo de Australia es un peldaño más en el recalentamiento artificial del mundo, las tormentas de fuego son probablemente tan viejas como la colonización de los continentes por cicádeas, helechos y coníferas primitivas, como las araucarias. Éstas son las plantas gimnospermas que inventaron la madera y el tronco arbóreo, allá por el Carbonífero, cuando Australia y Sudamérica compartían el megacontinente de Gondwana. Y con casi un 35% de oxígeno en la atmósfera en lugar de nuestro actual 20%, aquellos del Carbonífero en Gondwana sí que debían ser incendios.
Sin embargo, en estos últimos 10.000 años climáticamente estables del Antropoceno, entre los inicios de la agricultura y hasta entrado este siglo, las tormentas de fuego parecen haber sido raras. Si ahora dejan de serlo es porque entramos a otro mundo. ¡Bienvenidos al Piroceno, lectores! Ojo, puede ser inhabitable.
Un ya polvoriento estudio de Anthony Westerling, investigador en ecología del fuego de la Universidad de California en Merced, publicado en la revista Science, compara los incendios masivos (“megafires”) en EEUU entre los períodos 1970 a 1986 y 1986 a 2001, y muestra que la cantidad de eventos se cuadruplicó y la superficie quemada se sextuplicó. Inevitable: a fuerza de bombear carbono fósil a la atmósfera, estamos llegando a una temperatura media del mundo casi 1º C mayor que la media entre 1850 y 1900, y vamos de modo por ahora imparable a terminar el siglo XXI entre 3º y 5º C arriba.
El gobierno australiano de Scott Morrison desmiente esto, pero además cree que 3º C de diferencia en las temperaturas medias no son gran cosa. No hace falta rebatirlo: con apenas 1º C más, Australia se volvió el mejor campo de entrenamiento del mundo para bomberos profesionales, cuando el gobierno decida que tiene que financiarlo. Por ahí puede ser hasta un negocio. Morrison, en AgendAR exigimos un diego: “finder’s fee”, en tu jerga.
Por suerte, no todo incendio masivo logra generar una tormenta de fuego: se necesita una rara coincidencia de condiciones físicas para lograr esa circulación convectiva celular organizada: gases ardientes en ascenso por el centro (las “térmicas”), gases más fríos en descenso por la periferia (las “cizallas”), y el vórtice huracanado de aire fresco que alimenta la base. El frente de avance de un “megafire” puede medir decenas y centenares de kilómetros y ser muy retorcido, pero dentro de todo es más bien lineal.
En contraste, una tormenta de fuego tiene una huella circular concentrada, cuya superficie mínima funcional probó experimentalmente ser de 1,3 km2. Es un fenómeno de convección autosustentado que no se apaga hasta agotar todo combustible, y de una potencia difícil de describir. Los vórtices de superficie pueden chupar camiones (o personas) y llevarlos por el aire hasta la base del sistema. Las térmicas pueden tumbar panza para arriba o arrancarles las alas a cualquier avión hidrante, aunque se trate de un 747 Jumbo, y las ráfagas de cizalla perimetrales, impedir todo vuelo, incluso de helicóptero, y regar pavesas a sotavento a distancias de hasta 30 km. (en Australia). Esto último le permite a la célula, que no es ahorrativa con el combustible, regenerarse y avanzar a saltos. Si hay bomberos interpuestos, están pintados y lo mejor es que se vayan rápido.
La circulación vertical convectiva de gases y materiales puede cruzar la troposfera de parte a parte, en todos sus 10 a 14 km. de grosor. Las térmicas irrumpen en la estratosfera, donde inyectan miles de toneladas de gases y partículas de combustión que chocan contra las láminas de aire estratosférico. Éste es glacial, enrarecido y está ordenado en capas inmóviles de la estratosfera según su densidad. Las térmicas de una tormenta de fuego son como el chorro de un lanzallamas embistiendo, desde abajo, la losa de hormigón de un techo.
Estructura esquemática de una tormenta de fuego. Muchos focos unificados proveen una base de calor (1) que desata el ascenso en espiral de corrientes térmicas (2) de alta velocidad, las que llegan a perforar la estratosfera y formar un pirocúmulonimbo (A). El vacío generado por el ascenso de la térmica aspira un huracán rotativo de aire fresco (3) que fogonea la base del sistema. En ese sitio las temperaturas pueden llegar a entre 1000 y 1500º C según los combustibles.
Entonces la masa de gases y ceniza se derrama en horizontal y genera esa colosal nube abalconada, como la cabeza de un yunque, parecida a la del cúmulonimbo de una tormenta severa, o al de la voladura explosiva de un volcán pliniano. Sólo que un “pirocúmulonimbo” nacido de un incendio o un volcán genera aún más relámpagos y rayos que una tormenta de agua, por la mayor ionización y electrificación de las partículas sólidas aerotransportadas.
Los rayos que impactan sobre vegetación seca son una segunda fuente de regeneración a distancia de las tormentas de fuego, con un alcance que los australianos han medido en 100 km. Y si hay un viento suave, menor de 11,5 km/h, estas células convectivas avanzan a sotavento boyando como remolinos empujados por un río.
Vistas desde lejos, con su columna central de ceniza y humo en ascenso y coronadas por su “pirocúmulonimbo” estratosférico, las tormentas de fuego, como observó en 1999 nuestro compatriota Felipe Ivandic, jefe entonces del Servicio Nacional de Manejo del Fuego, pueden parecerse a ese ícono, el hongo atómico. Vistas en vertical desde un satélite, se les nota la estructura en espiral arremolinado de los ciclones de aire frío que alimentan la base. Las velocidades de circulación horizontal y vertical se miden en centenares de km/h.
En suma, los “megafires” inventariados por Westerling cada vez son más frecuentes y peores, pero están en otra categoría. Son pocos los que logran acceder a esta realeza de los incendios, las tormentas de fuego.
En Sydney no están acostumbrados a este nivel de smog. Bienvenidos al Piroceno, Aussies.
Las tormentas de fuego en la Gran Cordillera Divisoria hacen llover ceniza gruesa sobre los bañistas en las playas de Sydney, a un tercio de continente de distancia. El 1 de enero, por concentración de partículas de hollín de bajo peso molecular, volvieron el aire generalmente diáfano de esa ciudad costera el más irrespirable entre las urbes del planeta, en superación de la sopa gris de ceniza que se inhala habitualmente en Beijing y Calcuta.
Vienen de los lejanos bosques australianos las plumas de humo (muy diluídas) que ahora desfilan, impasibles, sobre Sudamérica tras haberse cruzado el Pacífico y saltado los Andes, a unos 5000 metros de altura. Sus partículas ultrafinas logran cambiar de azul a ligeramente gris el tinte del cielo despejado en Argentina, y su difracción exagera los rojos del sol poniente.
Unas 2.000 personas de más de 115 países ya se inscribieron como participantes del encuentro «Economía de Francisco», convocado por el Papa para marzo próximo en la ciudad italiana de Asís. Fueron convocados jóvenes economistas, empresarios y estudiantes menores de 35 años de todo el mundo y se desarrollará en esa ciudad del centro de Italia entre el 26 y el 28 de marzo, y ya tiene una inscripción considerada «récord» por las fuentes vaticanas.
Durante los tres días del evento, del que participará Francisco para el cierre, Asís será dividida en 12 sectores que hospedarán a los participantes para debatir sobre los «grandes temas e interrogantes» de la economía de hoy y mañana. Entre los ejes temáticos confirmados están «finanzas y humanidad»; «agricultura y justicia»; «energía y pobreza»; «Co2 y desigualdad» y «economía y mujer».
Ya confirmaron su presencia en Asís los premios Nobel Joseph Stiglitz, Muhammad Yunus y Amarthya Sen, así como otros referentes económicos mundiales como Bruno Frey, Tony Meloto, Carlo Petrini, Kate Raworth, Jeffrey Sachs, Vandana Shiva y Stefano Zamagni, entre otros. Se asegura que todas las disertaciones y debates podrán seguirse a través de las plataformas de Facebook, Instagram, Twitter, YouTube y Flickr.
Luigino Bruni, director científico del encuentro, hizo notar que no tiene nada de nuevo, ni siquiera de «moderno» el interés y la preocupación de la Iglesia por la economía: “Las primeras ideas económicas modernas nacen de los franciscanos, los primeros bancos sin afán de lucro son del siglo XV, los Montes de Piedad» (de donde viene el término «montepíos».
Cuando se le consultó cómo podría un sistema económico diferente responder a las demandas de los marginados, dijo que «una nueva economía no se hace sin bancos, sino con bancos diferentes, con bancos que incluyen a los pobres, con bancos con los que se combate la usura”, señaló en declaraciones a Vatican News.
Además, recordó que el Papa Francisco sostiene que “hoy en día ya no podemos considerar la ética ambiental como una norma que hay que respetar, un costo que hay que asumir; la ética ambiental debe convertirse directamente en una economía”.
En cuanto al rol que la ganancia tiene en el tipo de economía que Francisco plantea, Bruni explicó que el problema se da cuando se maximiza la ganancia “como dogma”. “Por lo tanto las ganancias no deben ser demonizadas, sino relativizadas. La ganancia no debe ser el valor único”, afirmó.
En ese sentido, dijo que los 181 gerentes de las grandes multinacionales, que manifestaron públicamente a mediados del año pasado que las ganancias no deben ser el único objetivo de la empresa, “han dicho lo que ya se sabía, esta cuestión no ha nacido hoy”. “Lo interesante es que hayan querido escribirlo en un documento, que hicieron público, porque están entendiendo que el mundo está cambiando y ellos también deben cambiar. Saben que cada vez más ciudadanos, consumidores, te castigarán si no haces otra cosa que obtener beneficios. Las empresas perciben este cambio en las preferencias de los consumidores y se comportan en consecuencia, no es que estos gestores sean altruistas, son personas que conocen los mercados y se están dando cuenta de que el viento ha cambiado”.
En AgendAR vemos que este encuentro ha sido anunciado por la Agencia Católica de Informaciones – ACI Prensa en agosto del año pasado, pero entre los medios masivos locales sólo ha sido tomado por El Cronista, un medio especializado en finanzas. Y, aunque Aci Prensa informa que previo al evento “se celebrarán talleres, laboratorios, jornadas de estudio y conferencias en Italia y en todo el mundo”, los cuales serán “promovidos por universidades, empresas, redes empresariales, organizaciones, movimientos y asociaciones, para hacer emerger el pensamiento y la acción económica de los jóvenes en preparación para el año 2020”, las actividades públicas en Argentina, fuera del ámbito eclesial, han sido pocas y discretas. Tal vez la más notoria, por la presencia de Stiglitz, fue la realizada en la Universidad Nacional de Córdoba en noviembre.
Hoy, 15 de enero, el viceprimer ministro chino, Liu He, principal negociador de su país, firma en Washington la Fase 1 del pacto acordado en diciembre de 2019 entre EE.UU. y China. Este acuerdo, en la opinión de la mayoría de los analistas -y la nuestra- supone «un éxito relativo» para Trump, en el sentido que probablemente lo favorecerá en su campaña para la reelección, que se decide en noviembre. Los granjeros del Medio Oeste venderán más soja al gigante asiático, y los mercados de acciones han registrado subas, al alejarse por ahora la amenaza de la guerra comercial.
Trump hizo una concesión importante: Washington anunció que sacará a China de la lista de países manipuladores de divisas. EE.UU. explicó que había realizado este cambio después de que China acordara abstenerse de devaluar su moneda para así abaratar sus productos para compradores extranjeros.
Cómo se llegó hasta aquí:
Las críticas al déficit comercial con China y a sus prácticas comerciales fueron dos de las banderas de Donald Trump como candidato presidencial. Ya como presidente de Estados Unidos, los ataques de Trump a China, vía Twitter, arreciaron. Su Gobierno comenzó a implementar medidas para enfrentar el desbalance casi desde el primer día que llegó a la Casa Blanca.
Luego de algunos anuncios e imposiciones de aranceles generales a comienzos de 2018 – a las importaciones de paneles solares en febrero y a las de acero y aluminio en marzo-, el Gobierno estadounidense hizo el primer ataque frontal y específico en esta guerra comercial en junio de ese año, cuando anunció un arancel del 25% sobre 818 productos chinos por 34.000 millones de dólares. La medida entró en vigor el 6 de julio.
Año y medio después, Estados Unidos ha impuesto aranceles a importaciones chinas valoradas en 550.000 millones de dólares, mientras que China ha hecho lo propio con productos estadounidenses valorados en 185.000 millones de dólares.
Durante ese tiempo, los anuncios de nuevos aranceles, investigaciones o restricciones a empresas chinas se han dado casi a la par con anuncios de posibles treguas, desmontes de aranceles y perspectivas de acuerdos más profundos. En medio de la guerra, la negociación entre las dos grandes potencias mundiales ha sido constante. Finalmente, el 13 de diciembre del 2019, los representantes de ambos países establecieron los términos de la Fase 1 de un acuerdo comercial. Esa primera fase se firma hoy en Washington.
Gracias a los términos establecidos entre Estados Unidos y China en diciembre pasado para la Fase 1 del acuerdo, el primero se abstuvo de imponer un arancel del 15% sobre productos chinos valorados en 160.000 millones de dólares, programado para comenzar a regir el 15 de enero. También, se comprometió a reducir el arancel que había impuesto en septiembre del año pasado sobre productos por 120.000 millones de dólares del 15% al 7,5%.
Por su parte, China acordó aumentar la compra de bienes y servicios estadounidenses en al menos 200.000 millones de dólares durante los próximos dos años, siendo el sector agrícola uno de los focos. Así mismo, acordó suspender aranceles sobre productos estadounidenses que tenía programados para diciembre e implementar salvaguardias para la propiedad intelectual.
Qué significa para América Latina
Si bien califica de “positivo” este acuerdo coyuntural, Enrique Dussel Peters, coordinador de la Red Académica América Latina y el Caribe sobre China y docente de la Universidad Nacional Autónoma de México, considera que no representa una solución real al enfrentamiento entre China y Estados Unidos.
Dussel afirma que “el fundamento de las diferencias persistirá en las siguientes décadas: el liderazgo tecnológico, productivo y hasta financiero por el que compiten ambos países. Desde esta perspectiva, la ‘guerra comercial’ solo es la punta del iceberg en el conflicto entre China y Estados Unidos, y al que tendremos que acostumbrarnos en las futuras décadas”.
En la misma línea, la publicación de The Economist del 2 de enero afirma que este acuerdo no afecta en nada la ruptura en curso entre ambas potencias. “Este modesto acuerdo no puede ocultar cómo la relación más importante del mundo está en su coyuntura más peligrosa desde antes de que Richard Nixon y Mao Zedong restablecieran los vínculos hace cinco décadas (…) El desmantelamiento parcial de sus lazos está en marcha. En la década de 2020, el mundo descubrirá hasta dónde llegará este desacoplamiento, cuánto costará y si, al enfrentar a China, Estados Unidos se verá tentado a comprometer sus propios valores”.
Como señala Dussel Peters, plantear que los países de Latinoamérica deban decidirse por Estados Unidos o por China (como lo han exigido algunos funcionarios de la administración Trump), es un falso dilema. “La región latinoamericana y cada uno de sus países, – incluso aquellos sin relación diplomática con China- todos cuentan a China y Estados Unidos entre sus tres principales socios comerciales, con creciente relevancia de China en la economía, y eventualmente en otras áreas”.
De acuerdo con el concepto de “nuevas relaciones triangulares” que utiliza el profesor Dussel Peters, China ha venido irrumpiendo en el duopolio ejercido históricamente por Estados Unidos y la Unión Europea. “La región y cada uno de sus países, sin excepción, tiene que entender, lidiar y negociar con este ‘nuevo triángulo’, señaló Dussel Peters en un informe para The Carter Center en 2019. Si bien Estados Unidos sigue siendo un aliado primordial para muchos países latinoamericanos, desligarse de China es una opción cada vez menos probable.
En el transcurso de la guerra comercial entre China y Estados Unidos, Latinoamérica ha sentido los efectos colaterales. Según un informe del FMI sobre el impacto de las tensiones comerciales entre China y Estados Unidos, los productores de soja de Brasil se beneficiaron tras el anuncio de China de imponer aranceles a la soja estadounidense. El precio de la soja brasilera subió, así como sus exportaciones a China.
México también se benefició colateralmente de la disputa arancelaria. Como señala el FMI, “tras la entrada en vigor de la lista de USD 16.000 millones en agosto (2018), la fuerte caída de las importaciones procedentes de China, por valor de casi USD 850 millones, prácticamente se compensó con un aumento de aproximadamente USD 850 millones de las procedentes de México”.
El cierre del mercado estadounidense obligó a China a buscar otros territorios para ubicar su enorme capacidad instalada, lo que ha tenido efectos negativos y positivos. Por una parte, ha impactado negativamente en industrias locales como la del acero, cuyos costos de producción no le permiten competir con los precios chinos. Por otro lado, ha obligado a China a mirar hacia Latinoamérica como destino para grandes proyectos, por ejemplo de energía eólica y solar. En el caso de Colombia, uno de los países latinoamericanos donde la presencia china en proyectos de infraestructura era casi nula, serán empresas de ese país las encargadas de construir el subtérraneo de Bogotá y el tren de cercanías.
Sin embargo, como ya lo señalaba Dussel Peters en 2017, hay mucha más claridad sobre las intenciones de China en la región que sobre los objetivos de los países latinoamericanos en China. Como lo propuso en el citado informe del 2019, los países latinoamericanos, “tanto bilateral como regionalmente, deberían entender en detalle la propuesta de globalización china con características chinas”.
En lo que respecta a comercio, considera que los países de la región deberían utilizar los mecanismos propuestos por China para impulsar el comercio bilateral y en cuanto a inversión, “determinar si el financiamiento, la inversión extranjera y los proyectos de infraestructura chinos suplen las necesidades de desarrollo de Latinoamérica y el Caribe”.
Por parte de Estados Unidos, es previsible que la presión por defender su mal llamado “patio trasero” siga en aumento. Los países latinoamericanos tendrán que hacer uso de funcionarios más capacitados y mecanismos más especializados para defender sus intereses ante un nuevo tríangulo de poder.
La doctora Ana María Franchi fue designada como presidenta del Directorio del CONICET. La novedad fue publicada ayer en el Boletín Oficial, a través del Decreto Nº 58/2020.
Franchi es Investigadora Superior del CONICET y directora del Centro de Estudios Farmacológicos y Botánicos (CEFYBO, CONICET-UBA). Es doctora en Química Biológica por la Facultad de Ciencias Exactas y Naturales de la Universidad de Buenos Aires (UBA). Su tema de investigación es la Salud Reproductiva y concentró su especialidad en la Fisiopatología del embarazo y el parto. Realizó más de 160 publicaciones en revistas científicas con referato y fue directora de doce tesis doctorales.
Además, Franchi es presidenta de la Red Argentina de Género, Ciencia y Tecnología (RAGCyT) y se especializó además en la situación de las mujeres en los organismos de Ciencia y Tecnología. También es integrante del grupo Ciencia y Técnica Argentina (CyTA).
En un acto donde fue presentada como presidenta, Franchi señaló que en abril próximo cumplirá 40 años de trabajo en el organismo y que para ella el CONICET es su “casa: muchas veces cuando iba a trabajar al laboratorio no decía que iba al trabajo, sino que me iba a mi casa”, contó. “Yo no tengo puesta la camiseta del CONICET, la tengo tatuada –continuó-. Deseo que el CONICET sea un lugar agradable para vivir. Somos una diversidad de géneros y venimos de una diversidad de disciplinas y no debemos olvidar que todos y todas debemos contribuir a hacer un país mejor”.
Además, la flamante presidenta trazó un breve diagnóstico de la delicada situación en la que quedó el ámbito científico en Argentina: “Estamos volviendo casi del subsuelo. Si no estamos todes juntos no vamos a poder trabajar para que la ciencia y la tecnología sean un factor que mejore la vida de la gente”. Por último, se comprometió a “escuchar a todes e intentar la mejor solución para cada cosa que me planteen”.
Hay aproximadamente 140 incendios forestales activos al día de hoy en Australia, pero la noticia es que algunos son técnicamente “tormentas de fuego”. Pocos argentinos conocen este fenómeno o tienen idea de su energía, y menos aún han visto uno. Hasta 1999 yo –periodista científico- pensaba que eran eventos artificiales deliberadamente diseñados para aniquilar ciudades y población civil durante la 2da Guerra Mundial. Pero no es así en absoluto: suceden en la naturaleza. Inevitablemente también creía que no había tormentas de fuego en la Argentina: otro error.
Entre 2001 y 2016 se registraron 56 tormentas de fuego en Australia, así como otras en EEUU, Canadá, Rusia y Mongolia, fundamentalmente sobre áreas boscosas. Estos fenómenos extremadamente raros se están volvendo frecuentes: sólo en el estado australiano de Victoria en las últimas seis semanas de 2019 se registraron 18 “pirocúmulonimbos”, el tipo de nubarrón estratosférico que sólo logran generar a) explosiones volcánicas plinianas, como las de los volcanes chilenos, y b) esa élite de los incendios llamada “tormenta de fuego”. En Victoria no hay volcanes activos. Por lo tanto…
¿Qué es una tormenta de fuego? Lector, le presento a Felipe Ivandic, ex Jefe del Plan Nacional de Manejo del Fuego, para que le cuente. Lo consulté en 1999, en ocasión de las conflagraciones que devastaron los alrededores de Villa La Angostura y tumbaron a María Julia Alsogaray como Secretaria de Medio Ambiente. Lo que sigue lo publiqué entonces en la revista de la Fundación Vida Silvestre.
“Estábamos tratando de apagar la estancia San Ramón, en la margen norte del Nahuel Huapi –contó Ivandic- cuando se armó una ‘tormenta de fuego’, uno de esos fenómenos atmosféricos convectivos: el centro del incendio emite corrientes térmicas ascendentes muy veloces, y el vacío creado por ese ascenso de masas de humo caliente se llena con vientos huracanados que confluyen en espiral desde la periferia y apantallan la hoguera central con aire fresco y oxigenado. Así, el incendio se autoxigena por abajo, como un alto horno. El humo en San Ramón subía a siete u ocho kilómetros. Usted lo veía de lejos y parecía el hongo atómico de Hiroshima.
“Bueno, ahí pudimos filmar llamas de 150 metros de altura. Y tratar de crear barreras cortafuegos era inútil: de pronto empezaban a llover pavesas (brasas voladoras) desde el frente del incendio, caían 800 metros a tus espaldas y generaban un foco secundario a distancia en cosa de segundos. Siempre pudimos escapar a tiempo. Ojo, eso a veces falla y mata a muchos bomberos forestales.
“El aire estaba tan caliente que había árboles que estallaban como cartuchos de dinamita, por la vaporización explosiva de sus fluidos. La madera que no se transformaba directamente en gas, volaba como esquirlas. No en esta ocasión, pero los astillazos a veces dejan bomberos heridos.
“Las raíces de algunos árboles ardieron bajo tierra totalmente a profundidades de 3 metros y dejaron su impronta vaciada en el suelo, en negativo. ¿Qué temperatura se necesita para que pase todo eso, me preguntás, Arias? Mirá, tras aquel incendio encontramos botellas derretidas en el piso: calculá que se fundieron a 1000 grados. Supongo que en las copas llegó a haber entre 1200 y 1500 grados”.
El de 1999 fue un verano de seca en los Andes Patagónicos por una oscilación fría en la temperatura superficial del Pacífico Sur del tipo “Niña”. Con poca evaporación en el Pacífico, el viento sudoeste no traía lluvias.
En Australia, en cambio, los factores climáticos operantes este verano de 2019-2020 son dos. El primero es otra oscilación oceánica, el Dipolo del Índico, en fase fría. El año pasado hizo refluir hacia África el agua caliente superficial desde el Índico, lo que desactivó la formación de nubes monzónicas en Oceanía y Australia. Esto creó la peor sequía desde 1910, cuando se creó el Bureau of Meteorology y empezó a llevarse un registro meteorológico sistemático a nivel nacional. De acuerdo al cual en 2019 llovió un promedio de 277 mm, más o menos lo que cae anualmente en los llanos de La Rioja, República Argentina.
Sobre eso se montó otra oscilación bipolar, el SAM o Souther Annular Mode, que generó vientos que soplan hacia el Este desde el “Outback”, el tórrido desierto interior australiano situado al Oeste de la Gran Cordillera Divisoria.
El SAM no sólo fogonea los incendios de arbustos y bosques en el Este, sino que resecó aún más la biomasa vegetal intacta. Además, creó un “domo térmico”, un encadenamiento de olas de calor que mantuvo una media diurna de 30,7º C en los 9 millones de km2 de la isla-continente durante todo 2019: en Australia no hubo invierno y la escasa humedad del suelo desapareció.
Luchando contra el fuego en Nueva Gales del Sur
El Bureau of Meteorology considera que esta media térmica de 2019 está 2,1º C por encima del promedio anual nacional desde su creación. El 18 de diciembre la media diurna marcó 41,9º C, lo que no es poco en un país que triplica la superficie argenta, y al día siguiente en esa planicie polvorienta del Outback llamada Nullarbor (en latín, “ni un árbol”) se midieron 49,9º C.
El Dipolo del Índico parece estar regresando a fase neutra, lo que da esperanzas de que la sequía afloje. Pero el calor no lo hará. El efecto invernadero mundial levantó 1º C el promedio térmico australiano a lo largo del siglo XX y el invierno va desapareciendo. Del mismo modo, el verano, con sus temporadas de fuego, empieza antes, es más duro y termina después. Además, como sucede en Sudamérica, con la Oscilación Austral del Pacífico (“El Niño”-“La Niña”), el Calentamiento Global parece estar acelerando y agravando los ciclos del Dipolo. Los climatólogos del Bureau australiano predicen que en 2060 las tormentas de fuego empezarán con la primavera, no en verano.
A lo largo de 2019 estas predicciones desataron choques entre el gobierno “tory” y los académicos australianos, idénticos a los que mantiene el presidente estadounidense negacionista Donald Trump con su propia comunidad científica. En noviembre de 2019, con su jefe de vacaciones, el premier adjunto Michael McCormack le quitó importancia a la que se venía sobre su país con esta frase: “Hemos tenido incendios en Australia desde comienzos de los tiempos”. Luego, desestimó el impacto del Calentamiento Global sobre los mismos como “los delirios de unos verdolagas urbanos, puros e iluminados de la capital”.
Sarah Perkins-Kirkpatrick, climatóloga de la University of New South Wales, se limitó a citar un estudio de 2008, pedido por el gobierno del laborista Kevin Rudd. Predecía con extraña exactitud que 2020 sería un año de cambios cualitativos y catástrofes. “Sabíamos que esto iba pasar”, respondió.
La sociedad, fisurada por excelentes motivos, apostó a que no. Scott Morrison, el verdadero Primer Ministro, había ganado las elecciones de agosto de 2018 por un pelo. En su campaña, iniciada cuando en 2017 como Jefe del Tesoro (Ministro de Economía, en criollo), Morrison había citado repetidamente al carbón “como el cimiento mismo de la australianidad”. Dado que el financiamento de los partidos es de acceso público en ese país, se sabe que la pagó el barón del lobby correspondiente, Cliver Palmer, dice Marina Aizen, en Anfibia.
La australianidad es medible. En 2018, Australia exportó U$ 67.000 millones de carbón. Ese carbón no incluye los U$ 30.000 millones de coque usado en los altos hornos de las acerías. Y a esa torta de carbono fósil exportado hay que añadir U$ 50.000 de GNL (gas natural licuado), que en 2019 sobrepasan las vendidas por Qatar, lo que explica a su vez que con un 0,36% de la población mundial, Australia genere el 1,7% del efecto invernadero.
Por ende, cada australiano emite tanto carbono fósil como casi 5 humanos promedio de otros países, lo que lo hace el 2do contribuidor “per capita” al efecto invernadero, una décima de punto debajo de cada árabe saudí. Lo de Australia no es ni una nota al pie frente al 40% que contribuyen China y EEUU al desastre climático, pero no es justo comparar la huella de carbono de sólo 25,5 millones de Aussies contra la suma de 1765 millones de chinos y de yanquis.
El carbón explica además el 60% de la electricidad de la red australiana. Sumando exportaciones, uso propio y otros pitos y flautas, este mineral en 2018 aportó U$ 1420 BILLONES (millones de millones) al Producto Bruto Interno, lo que repartido sobre tan pocos habitantes aquel año dio un ingreso per cápita de U$ 56.420 anuales sólo de carbón, sin contar el GNL. Cuando Morrison endiosa al carbón como la australianidad al palo, no macanea. Es una beca, es una cornucopia. Dios es australiano.
Y hablando de Dios, sólo cuando el fuego alcanzó proporciones bíblicas, en la Navidad pasada, Scott Morrison volvió de sus vacaciones en Hawaii. Hoy, cosa rara en la educada cultura cívica australiana, el tipo no puede mostrar la cara en público sin ser puteado por sus compatriotas, esa ingrata manga de carboñoquis que no se banca medio año de respirar humo.
Los australianos, que son ecologistas al punto de tener 57 parques nacionales y el doble de bosques protegidos, tampoco se banca la certeza de que en los últimos 3 meses desapareció la mitad de la población mundial de koalas. Son los únicos mamíferos marsupiales que se alimentan de las copas de los eucaliptus porque coevolucionaron con este género. Este verano se volvieron asado de osito.
En Australia la descripción que hizo nuestro bombero Felipe Ivandic de una tormenta de fuego criolla se quedaría corta. Las condiciones son peores y el combustible, mejor: la madera liviana y las hojas llenas de aceites volátiles de las más de 700 especies de eucaliptus, árbol nativo dominante en los bosques de New South Wales y Victoria y South Australia, se prenden más fácil que la de nuestros lengas, ñires, coihues y cipreses andinos. En cuanto a las plantaciones de coníferas resinosas norteamericanas, básicamente Pinus radiata o “pino insignia”, suman casi 3 millones de hectáreas. Casi nada arde mejor.
Chicas de Sydney respirando hollín de bajo peso molecular con barbijo, últimamente muy de moda.
Están en llamas bosques muy a prueba de fuego como la selva tropical de Queensland, sobre la costa Norte, con sus 5 especies de araucarias, todas de corteza gruesísima para proteger el cambium, la capa de crecimiento del tronco, y ramas autopodantes para evitar que las llamas escalen hasta las copas.
Arden también los muchos islotes de otros tipos de bosques de altura en las sierras y mesetas de la Gran Cordillera Divisoria. Ésta, aunque no supera los 2200 metros, atraviesa el continente de Norte a Sur a lo largo de 3500 km. y suma una superficie (2,4 millones de km2), apenas inferior a la de toda la Argentina.
Los manchones arbóreos de este variopinto macizo son “ecosistemas-isla” que no han cambiado mucho desde el Cretácico, último round de los dinosaurios en el planeta. Y es que en un continente chato como una mesa de billar, los árboles prosperan sobre estas elevaciones con lluvias orográficas garantizadas (y en el caso de los Alpes Australianos, nieves). La humedad del aire podrá ser mucha o poca según mes y año, pero la altura la condensa y precipita. Sin embargo, no en 2019.
Estos tatarabuelos forestales hoy arden. Y la opinión pública, ni te digo.
La superficie nacional quemada equivale casi a la de nuestra provincia de San Juan. Hay 136 focos activos repartidos en 8 millones de hectáreas, de los cuales entre el 10 y el 20% son tormentas de fuego. Murieron y/o desaparecieron 40 personas, 2.000 viviendas y otras estructuras, unas 100.000 cabezas de ganado, y un número conjetural de 1000 millones de individuos de centenares de especies de animales salvajes. De un “megafire” puede haber recuperación, pero donde pasan tormentas de fuego se mueren hasta las bacterias del suelo, las garantes de que algo rebrote.
Cuando se desata una tormenta de fuego los esfuerzos de supresión o contención son inútiles. Aún si la tuviera que enfrentar una fuerza federal y profesional de bomberos (Marina Aizen subraya que Australia no tiene ninguna, sólo voluntarios locales), “…las tormentas de fuego son las manifestaciones más peligrosas e impredecibles entre los incendios forestales, y son imposibles de apagar o controlar”, dice la investigadora Rachel Badlan, de la New South Wales University.
Badlan no macanea: las térmicas pueden regar pavesas hasta a 30 km. de distancia a sotavento de la columna térmica central, y los rayos creados por los pirocúmulonimbos tienen un alcance de hasta 100 km.
Estamos ingresando a otra etapa histórica y geoclimática.
En 2019 la recaudación impositiva creció muy por debajo de la inflación. Al mes de diciembre finalizó en $ 492.366,6, lo que significó una variación del 53,9% en relación al mismo mes de 2018. Y al ser el último mes del año, se pudo saber que la cifra de recaudación total de 2019 fue de $5,02 billones. Esta última cifra implica un incremento del 48,5% en relación a 2018.
Es decir, significa una pérdida para el fisco si se la compara con la inflación, que las proyecciones estiman en 54%. Uno de los principales motivos de este mal desempeño de la recaudación fue la economía en recesión y esto puede verse en el IVA que tan solo creció un 38,7%. Es decir, habría caído casi por 15 puntos contra el aumento generalizado de precios.
En el desglose se puede ver que el IVA impositivo subió un 42,9% y el aduanero un 33,5% a lo largo de 2019. No obstante, ambos fueron doblegados por la inflación y, cabe recordar, el Impuesto Al Valor Agregado significa un 30,5% de la recaudación total de la AFIP, lo que lo convierte en el tributo más importante.
En cuanto a Ganancias, este rubro tuvo una menor caída en términos reales, pero caída al fin. Creció un 47,8% interanual, nuevamente, varios puntos por debajo del recorrido inflacionario. Los impuestos correspondientes a la seguridad social, en tanto, crecieron un 33,9% en pesos. En el informe oficial, AFIP señaló al respecto: «El desempeño de los recursos tributarios vinculados al Sistema de Seguridad Social estuvo afectado el año pasado por la pérdida de puestos de trabajo en el sector privado y la dinámica salarial. Asimismo, incidió negativamente en la comparación interanual el proceso de convergencia hacia la unificación de la alícuota y el aumento del mínimo no imponible para las Contribuciones Patronales.
Donde sí hubo un incremento fuerte incluso muy por encima de la inflación fue en Derechos de Exportación, que incluye a las retenciones. En esta materia la recaudación creció un 248,9% interanual contra 2018.
¿La explicación? «Las modificaciones al esquema de Derechos de Exportación vigentes entre septiembre de 2018 y diciembre de 2019 redundaron en una mejora de esos ingresos tributarios a lo largo del año. En el mismo sentido se contabilizan los recursos generados por los Derechos de Exportación de Servicios. Algo similar ocurrió en Bienes Personales, donde hubo una variación positiva entre 2018 y 2019 de 358,9%.
Entre los factores que favorecieron la recaudación por este concepto figuran la modificación en el esquema del impuesto -excepción de casa habitación hasta $18 millones, mínimo no imponible de $2 millones y esquema escalonado de tasas- y la reincorporación de los contribuyentes cumplidores.
El Impuesto sobre los Créditos y Débitos en Cuenta Corriente recaudó, a lo largo de 2019 un 49,2% más que en 2018. En tanto los ingresos tributarios por Derechos de Importación y la Tasa de Estadística tuvieron un incremento interanual de 52,2%. Ambos rubros perdieron contra la inflación, aunque Derechos de Importación comenzó a crecer durante los últimos meses del año, cuando se introdujeron una serie de modificaciones impositivas.
La revolución tecnológica está transformando el mercado laboral y promete dejar en el recuerdo a varios empleos que hoy emplean a millones de personas. Al mismo tiempo, las nuevas tecnologías y su rápida evolución crearon nuevas necesidades de conocimiento y roles en las empresas de todos los tamaños.
Pues lo que la transformación digital quita de un lado, lo da en el otro. O, al menos, es lo que asegura LinkedIN.
Según el último informe de la Organización para la Cooperación y el Desarrollo Económicos (OCDE): el 14% del empleo mundial tiene un alto riesgo de automatización, lo por lo que se perderán 75 millones de puestos, contra los 130 millones que se crearán. La red social profesional LinkedIn presentósu informe anual Emerging Jobs sobre las nuevas profesiones que irrumpen en el mercado de trabajo argentino, para lo que analizó los datos de los más de 7 millones de páginas de la plataforma.
La red social profesional identificó las profesiones que sobresalieron a lo largo de los últimos cinco años y aquellas habilidades que requieren. Casi la mitad está vinculada a la industria tecnológica, y el resto se basa en las «habilidades blandas», de comunicación y relaciones interpersonales, y todos sus nombres están en una jerga derivada del inglés. Esto puede fastidiar a muchos, pero es un dato objetivo: son las destrezas que tienen más posibilidades en el mercado de trabajo actual, aún en medio de la recesión.
Customer service leader. La atención al consumidor una de las especialidades más requeridas por las empresas en el ámbito local. Los roles de servicio al usuario son principalmente reactivos, giran en torno a atender quejas y reaccionar ante los desafíos impuestos por un cliente que está cada vez más informado y que, por ende, es más exigente.
El papel del «especialista en éxito del cliente» es trabajar de manera proactiva dentro de su negocio y con sus usuarios para lograr una solución integral a las problemáticas posibles para todos los involucrados.
Ejecutivo para ventas online. En todo el mundo, los representantes de comercializar un producto o servicio son muy demandados. Son el eslabón clave en la cadena de valor: el que logra la compra efectiva. Y toda empresa necesita los necesita para:
Buscar clientes y compradores potenciales
Explicar a nuevos consumidores los beneficios de los productos, bienes y servicios
Brindar servicio a los clientes actuales
Guiar los en todas las fases del ciclo de ventas
Comercializar por Internet
Trabajar con la organización para garantizar la satisfacción del consumidor
Resolver los reclamos, investigando los problemas, desarrollando soluciones y elaborando informes
Seguir el volumen, números y márgenes de ventas revisando los informes correspondientes
Cumplir con márgenes de ventas semanales, trimestrales, mensuales y anuales
Inspector de Control de Calidad. Supervisan que los productos cumplan con las normas de calidad y seguridad, comprueban y examinan las muestras regularmente, además de realizar inspecciones visuales o controlar los procesos. Son quienes velan por entregar la mejor versión de un bien a los consumidores.
Ingeniero de Datos. Son los responsables de encontrar tendencias en los conjuntos de información y desarrollar algoritmos para ayudar a que los datos sin procesar sean más útiles para la empresa.
Este tipo de ingenieros son, a menudo, responsables de construir algoritmos para ayudar a facilitar el acceso a los datos brutos, pero para ello necesitan comprender el negocio de la empresa o del cliente.
Especialista de Soporte de mesa de Ayuda. Este profesional suele proporcionar soporte a los usuarios a través de varios canales, como números de teléfono gratuitos, sitios web, chat o mensajería instantánea, correo electrónico. Y lo hace con un doble foco: la asistencia puede apuntar al público externo como a empleados, de manera de brindar un asesoramiento integral.
Líderes en capacitaciones 4.0. Está definido por profesionales, en su mayoría, adultos, que apoyan a quienes imparten conocimientos en instituciones educativas de distintos niveles. La evidencia sugiere que estos perfiles pueden tener un impacto positivo en el logro académico ya que abren el camino para los nuevos empleos que está generando la economía del conocimiento.
Dueño de Producto. Es el líder responsable de maximizar el valor de los bienes creados por un equipo de desarrollo. Se trata de un profesional «ágil» que reúne múltiples roles en uno, incluido el de la curaduría de la estratega de negocios, diseñador de productos, analista de mercado, enlace con el cliente y gerente de proyectos.
Técnico de Selección Personal Informático. Es un rol fundamental para que una empresa pueda conseguir los mejores especialistas. Suelen tener títulos de grado o pregrado relacionados con áreas de Psicología, Sociología, Ciencias Políticas, Negocios. Y, al mismo tiempo, es necesario que tengan conocimientos en tecnología.
Scrum Master. También llamado facilitador de proyectos, es la figura que lidera los equipos. Su misión es que los grupos de trabajo alcancen sus metas hasta llegar a la fase de «sprint final», eliminando cualquier dificultad que puedan encontrar en el camino.
Científico de Datos. Es un campo interdisciplinario que involucra métodos científicos, procesos y sistemas para extraer conocimiento o un mejor entendimiento de la información en sus diferentes formas. Esta especialización es una continuación de algunos campos de análisis de datos como la estadística, la minería de datos, la matemática, la informática y la analítica predictiva.
Se enfoca en el aprendizaje automático y métodos relacionados para comprender e indagar sobre fenómenos reales. En un contexto de abundancia de información, el gran desafío para las organizaciones es cómo usarla eficientemente para agregar valor al negocio.
Analista de Datos. Este perfil se ha convertido en uno de los más demandados del sector IT. Su función es la de analizar de forma estadística información para establecer estrategias eficaces dentro de una empresa.
-Desarrollador JavaScript. JavaScript es un lenguaje indispensable en el desarrollo de proyectos web y aplicaciones, plataformas que están en el centro de la escena digital hoy en día. Un profesional con este expertise puede convertirse en un desarrollador full-stack, capaz de encargarse de todo el proceso de creación web. De allí, su relevancia en una organización.
-Desarrollador Back-End. Tiene a su cargo la interacción entre el usuario y el sitio web. Es un programador que se ocupa de crear la lógica y las soluciones para que las acciones solicitadas desde una web o app móvil se sincronicen y ejecuten correctamente. Se anticipa a problemas que puedan generarse en la integración de los elementos para que no existan fallas.
-Ingeniero DevOps. Son los profesionales de la Tecnología de la Información (IT) que trabajan con desarrolladores de software, operadores de sistemas (SysOps) y otros especialistas de IT de producción para supervisar las publicaciones de códigos.
Científicos argentinos comprobaron que el ejercicio físico y otros estímulos cognitivos, sensoriales y sociales permitieron disminuir una serie de lesiones en experimentos que reflejan aspectos clínicos importantes de la forma más discapacitante de la esclerosis múltiple, una enfermedad crónica que afecta a 3 millones de adultos jóvenes en todo el mundo y a más de 12.000 en nuestro país.
“Los resultados alentadores del trabajo abren las puertas a la aplicación de estrategias de tratamiento no farmacológicas en pacientes con esclerosis múltiple”, asegura la directora del estudio, la doctora Carina Ferrari, integrante del Laboratorio de Terapias Regenerativas y Protectoras del Sistema Nervioso que lidera el doctor Fernando Pitossi en la Fundación Instituto Leloir (FIL) e investigadora del CONICET en el Instituto Universitario del Hospital Italiano.
La esclerosis múltiple se caracteriza por ataques del propio sistema inmunológico a la sustancia que recubre los nervios (mielina). Y puede producir distintos grados de discapacidad, incluyendo un deterioro de las funciones cognitivas. Es una de las enfermedades más temidas, porque no hay cura en la mayoría de los casos.
En el nuevo estudio, publicado en la revista “Brain Research”, el “combo” de estímulos redujo en ratones el daño de la corteza cerebral, atenuó la inflamación, mejoró la memoria a corto plazo y alivió la ansiedad y la depresión, que son algunos de los trastornos y síntomas que experimentan los pacientes.
Del trabajo también participaron María Celeste Leal, María Isabel Farías, Brenda Erhardt y Pablo Galeano, investigadores de la FIL
El efecto terapéutico del deporte y la interacción cognitiva
Los investigadores utilizaron un modelo animal de la forma progresiva de la esclerosis múltiple, que representa un 15% del total de los casos y se caracteriza por un empeoramiento constante de los síntomas, sin períodos de alivio o remisión.
Los científicos quisieron analizar si los signos o síntomas podían mejorar o revertirse al exponer a los animales a un “ambiente enriquecido”: grandes espacios con juguetes y túneles para interactuar y ruedas para hacer ejercicio.
En una primera instancia, los investigadores colocaron a un grupo de roedores en un ambiente enriquecido y a otro en uno estándar desprovisto de estímulos durante 28 días. Finalizado ese período, comprobaron que los animales expuestos a estímulos de diferente orden presentaban en la corteza menor falta de mielina, menos inflamación y menor pérdida neuronal. También se desempeñaron mejor en pruebas de memoria, ansiedad y depresión, según resalta la primera autora del trabajo, la neuróloga Berenice Silva, becaria postdoctoral de la Fundación René Barón en la FIL y en el Instituto Universitario del Hospital Italiano.
“La medicina actual se enfoca mucho en los tratamientos farmacológicos, y no ve a la persona con esclerosis múltiple como un todo”, afirma Silva, también neuróloga del Centro Universitario de Esclerosis Múltiple del Hospital Ramos Mejía. Y agrega: “El abordaje no farmacológico está empezando a cobrar relevancia, y se está publicando cada vez más evidencia científica que lo avala, dado que también provee beneficios y puede ser complementario al tratamiento farmacológico”.
“Sería interesante que en el futuro puedan elaborarse ensayos clínicos que evalúen el efecto de combinar el ejercicio físico con la estimulación cognitiva y social, es decir, un abordaje multidisciplinario. Aún no existen estudios de este tipo ya que resulta dificultoso elaborarlos”, concluye Ferrari.
El doctor Orlando Garcea, jefe del Centro Universitario de Esclerosis Múltiple de la División Neurología del Hospital Ramos Mejía de la ciudad de Buenos Aires, quien no participó del estudio, afirmó que el avance científico “es muy importante porque se enfoca en el aspecto no farmacológico de la enfermedad, que tanto los neurólogos como los pacientes debemos considerarlo prioritario de la misma manera que lo hacemos con los fármacos. Por ello, es fundamental contar con evidencias científicas que lo avalen”.
Los autores de este avance recibieron el premio al mejor trabajo del 55º Congreso de la Sociedad Neurológica Argentina y la mención a trabajo científico destacado en el congreso internacional anual más grande del mundo sobre Esclerosis Múltiple que tuvo lugar en septiembre pasado en Estocolmo, Suecia, y que fue organizado por Comité Europeo para el Tratamiento e Investigación en Esclerosis Múltiple (ECTRIMS).