José Luis Antunez, el presidente de Nucleoeléctrica Argentina, doctor Honoris Causa de la Universidad de Buenos Aires

El miércoles 31 de mayo, en el auditorio de la facultad de ciencias exactas y naturales de la UBA, en la Ciudad Universitaria, se formalizó la más alta distinción que entrega la universidad. El ingeniero Jose Luis Antúnez fue nombrado doctor Honoris Causa en reconocimiento a su trayectoria. Hicieron uso de la palabra los decanos de ingeniería y de exactas, autoridades de la universidad y de las entidades profesionales de la Ingeniería y enviaron videos los referentes internacionales de la actividad nuclear, Rafael Grossi y Antonio Godoi. Estuvieron presentes científicos, técnicos, docentes y estudiantes, para quienes Antúnez brindo luego una clase magistral sobre el rol de la energía nuclear en la transición energética. El acto completo, en este video:  

El que voló la represa de Nova Kajovka no es del pago

0
El miércoles 6 de este mes de junio la voladura de la represa de Nova Kajovka, la sexta de las construidas “en cascada” de Norte a Sur sobre el río Dniéper en tiempos soviéticos, desató vastas inundaciones aguas abajo y está vaciando el embalse aguas arriba. Las consecuencias son fortísimas para varias zonas y activos en manos rusas y abren oportunidades a la actual ofensiva ucraniana. Por ahora ésta sigue buscando puntos de debilidad en un frente de más de 1300 km, todavía sin gran fortuna. Pero liquidada la represa, el frente está agrandándose en 300 km. adicionales. Nacido a apenas 220 metros de altura en las lomadas Valdai en Smolensk, Rusia, el Dniéper tiene 2200 km. de largo y un espléndido caudal de 1600 m3/segundo. Pero hace décadas que no es propiamente un rio sino más bien una cascada de sucesivos embalses artificiales. Tras la ruptura de la Unión Soviética el Dniéper se volvió trinacional, con 485 km en las nacientes rusas, 700 km. de curso medio en Belarús y los 1095 km. finales en Ucrania. No sabemos adónde estará la frontera entre Ucrania y Rusia cuando termine esta guerra, si termina. Pero desde que se desató en febrero de 2022, en lo que va de Zaporiya hasta el delta a orillas del Mar Negro, estos lagos han fungido una vez más como línea del frente entre dos ejércitos. Como los embalses se apegan al viejo cauce de inundación del Dniéper y éste, al igual que la historia regional, es muy vueltero, los puntos cardinales no definen mucho. Por ello, nos apegamos a la ortodoxia de geógrafos que recomienda llamar “izquierda” o “derecha” a las orillas suponiendo que uno viaja por el río corriente abajo y mirando a proa. Daños a las defensas rusas
Foto satelital de Maxar Technologies del dique roto de Kajovka
En la orilla derecha, los daños de la voladura del dique fueron considerables: 40 aldeas bajo agua, y también enterrada en una sopa de Dniéper pimentada de agroquímicos, detritus industriales y de guerra al menos el 20% de la ciudad de Jersón, ya muy derruida y despoblada por haber sido liberada dos veces del tiránico opresor anterior. Pero lo inundado de Jersón está a pie de barranca: el resto de la ciudad se yergue hasta 25 metros por sobre el Dniéper. Por lo bajo, en las primeras 48 horas había 20.000 inundados en ambas márgenes, según la revista británica Nature, y 700.000 ucranianos en las ciudades de Jersón, Nikopol, Marhanets y Pokrov con su provisión de agua potable amenazada, porque se alimentaba por acueductos con bocatoma en el viejo pelo de agua del embalse de Kajovka, y el viernes 9 éste había perdido 8 km3 de volumen, bajando de 19 a 11 km3. Sin embargo, en la orilla izquierda del sistema deltaico del Dniéper todo ha sido mucho peor, reconoce Science, fundamentalmente porque ésa es una costa más baja y anegadiza. En revancha, la orilla derecha del Dniéper, delimitada por una falla geológica ascendente, es en promedio 15 metros más alta, por barrancosa. Se parece un poco a nuestro Paraná de las Palmas a la altura de las Atuchas I y II, con las centrales a 40 metros sobre el río, subidas a barrancas empinadas sobre la margen derecha, y con vistas hacia una orilla opuesta más barrosa, de pajonal y monte. Por ello, la voladura de esta represa soviética de 68 años de antigüedad barrió con facilidad unos 100 km. de líneas de defensas rusas desde la pared demolida hasta la salida del río al Mar Negro. Esto lo dice Binkov’s Battlegrounds, un canal croata de geopolítica bélica de Youtube, bien informado en asuntos de logística, armamento y doctrinas nacionales de combate. Informan oficiales ucranianos de soldados rusos sorprendidos y arrastrados por el agua, según el semanario británico The Economist. Al Jazzeera habla de miles de minas antitanque y antipersonales que protegían la primera línea de trincheras rusas arrancadas de sus enterramientos y regadas por las islas corriente abajo. La desembocadura poco habitada del Dniéper sobre el Mar Negro es una buena zona de infiltración para tropas especiales, una reserva de biosfera. Sus costas fueron jalonadas de búnkeres por el Ejército Ruso. Como observa Eduardo Vior, experto en internacionales de TELAM, las defensas rusas, muy escalonadas en profundidad, ahora deberán retroceder y reconstruirse en territorio más alto y seco. Y más vale que rápido. Hasta 130 kilómetros aguas arriba del paredón derruido, donde está el complejo nuclear de Zaporiya, el rápido desagote del embalse de Kajovka está creando varias posibles playas de desembarco sobre la margen izquierda. Todavía son demasiado barrosas como para que los ucranianos las exploten, salvo para incursiones de comandos. Pero los días largos de verano podrían volverlas más firmes. La extensión del embalse a capacidad normal (18 km3) le daba una extensión de 2000 km2. Su regreso a los viejos márgenes históricos del Dniéper le harán perder una anchura hoy de muchos kilómetros, pero su estabilización depende de cuánta pared intacta midiendo desde el fondo haya quedado en los dos tramos de la represa que fueron volados. Binkov’s no cree que la demolición de una estructura tan masiva haya sido posible con misiles o artillería. Más bien opina que se usaron cargas de profundidad o de demolición tras alguna operación muy bien encubierta con buzos tácticos, ayudados o no por submarinos enanos. Añade que los explosivos pueden haber sido montados hace más de un año por los rusos, cuando todavía dominaban ambas orillas del embalse. Entonces querían reservarse la posibilidad, llegado el caso, de no quedar rodeados por la Milicia Territorial (equivalente ucraniano de nuestra gendarmería) escapando por el coronamiento de la represa de la veloz ofensiva de septiembre de 2002. Eventualmente, si volaban el dique tras una retirada así, los rusos podían impedir que sus oponentes lo usaran para generar una cabeza de puente en la margen izquierda. Pero en la situación actual, con fuerzas antagónicas plantadas en cada cabecera de la represa, el croata -en general apegado a la OTAN- no cree que la voladura de la misma favorezca en nada al Ejército Ruso. De modo que sin haber aún si el Dniéper terminará regresando a su viejo ancho de río, que era majestuoso, lo que vaya a desembarcar en las «nuevas» playas que van reapareciendo en la margen izquierda tras casi 7 décadas de inmersión tendrá que cruzar antes a flote, o por sobre pontones, y bajo fuego ruso. Nada indica un cruce regalado, aún sin oposición. Cuando la URSS todavía no lo había tornado en una cadena de enormes y lerdos embalses, el Dniéper en esta zona tenía sus 3 kilómetros de ancho, fue siempre correntoso y resultaba bastante profundo, con vaguada de 14 metros o por ahí. Con mirada de milico moderno, no es un obstáculo que un tanque pueda cruzar por el fondo: no le alcanzaría el snórkel. No por nada el nombre al río se lo pusieron los escitas, pastores, jinetes y  arqueros que fueron la pesadilla de griegos y romanos: Dānu Apr, en su parla indoiraní, significaba “río profundo”, es decir sin vados, o con muy pocos.  Este impasable Dānu Apr, Dniéper o Dnipro, ha sido, como otros grandes ríos de Europa (el Don, el Danubio, el Dniéster, el Volga, el Elba), la única frontera natural en los 4000 kilómetros de llanura tendidos desde Holanda hasta los Montes Urales. En esa fértil planicie casi no existen montañas o bosques que frenen a los ejércitos. Y por ello, los cambiantes estados-nación que la jalonaron y jalonan viven en una justificada y milenaria paranoia. Todavía no sabemos cuánto lecho de lago va a quedar expuesto al aire, pero no va a ser para bien de nadie: a diferencia del fondo arenoso, grueso y dorado de nuestro Paraná, que estuvo caminable por megasequía entre 2020 y 2023, el del lago Kajovka es puro sedimento fino. Abunda en limos y arcillas buenas para atrapar metales pesados y otros contaminantes industriales por adsorción. De modo lo que tarden en volver la represa y su lago (y difícil que regresen, sin que se firma la paz), habrá 2000 km2 de barros ecotóxicos que serán volados como polvo por los vientos y regados sobre campos y ciudades, como viene pasando desde hace décadas con los fondos del casi desaparecido Mar Aral. Es las vecindades del Aral, las estadísticas de EPOC (enfermedad pulmonar obstructiva crónica) y de cánceres son muy altas. Las posibles voladuras de polvo en Karjovka son de mal pronóstico para la salud pública y la producción agropecuaria en general, a ambas orillas del Dniéper. El descenso del pelo de agua del lago va a dejar nuevamente en racionamiento hídrico rabioso a los hoy casi 2,5 millones de habitantes de Crimea. Esta península es tan estepárida, ventosa y polvorienta como la costa de la Meseta Central Santacruceña en Argentina, sólo que con predominio más marino que continental, y por ello temperaturas medias más altas y nada de nieve. Más o menos, el clima de Puerto Deseado.  
El Canal del Norte de Crimea, tendido desde el embalse de Kajovka hasta el Estrecho de Kerch, con sus emisarios y sus zonas de regadío
Si sirve como medida de lo boreal y fría que era la Unión Soviética y que sigue siendo la Rusia actual, éste es el lugar donde los que cortan el bacalao (o más bien el esturión) tienen su “dacha” veraniega, o de finde. Desde la posguerra, ha sido y es la Punta del Este de los ivanes con mando: para el frío tienen el cuero más duro que nosotros, y les gusta que no llueva, que no nieve y brille casi siempre el sol. Toda la producción agropecuaria, las ciudades fotogénicas, las forestaciones, las playas turísticas y las agroindustrias de Crimea son asuntos recientes y dependen del llamado Canal del Norte. Éste nace dentro de una gran dársena en la margen derecha de la represa de Nova Karjovka.  Este canal rumbea con decisión desde el lago hacia el Sur, y su considerable red de emisarios provee el 85% del agua local de Crimea, cuyo 72% va (o iba) a parar a agricultura. El resto del agua en la península depende de las avaras lluvias, unos 300 mm. anuales, que jamás permitieron más que una macilenta ganadería lanar extensiva. Toda esa profusa obra hídrica fue excavada a fines de los ’50 por órdenes del fúnebre padrecito Josip Stalin y luego del más sonriente Nikita Jrushov, que era ucraniano por nacimiento. La fuente de agua de esta red era del embalse de Nova Kajovka. Si la Crimea vieja anterior era una estepa jalonada de ocasionales ovejas, fortalezas y puertos militares, la moderna es un considerable regadío. O lo era hasta el miércoles pasado. Haciendo historia reciente, Ucrania cerró el Canal del Norte con un dique tras la captura relámpago de la península por Rusia en 2014. Eso hizo caer la producción agrícola regional en un 90%. Pero ya en 2022 y en guerra abierta, el ejército ruso dinamitó ese cierre y reabrió el canal tras capturar ambas márgenes del embalse de Kajovka. Hoy ese canal se va quedando nuevamente en seco y Crimea no tiene otras fuentes de agua potable. Tal vez habrá que traerla en vagones-cisterna por riel a través del puente de 19 km. de longitud sobre el Estrecho de Kerch, dice Binkov’s, pero va a ser carísima, habrá que distribuirla sin ayuda de la gravedad, y no es imposible que ese colosal pero frágil puente vuelva a comerse otro bombazo ucraniano. La situación de Crimea vuelve a ser un poco desesperante. Problemas de seguridad nuclear
Piletones de enfriamiento al aire libre de los elementos combustibles gastados del complejo nuclear de Zaporiya, con sus seis centrales. El agua puede circular en circuito cerrado y enfriarse por aspersión.
130 kilómetros aguas arriba del cerramiento destruido, el bajonazo de nivel del agua del embalse de Kajovka podría dejar sin refrigeración los combustibles gastados y los núcleos de los reactores del complejo nuclear de Zaporiya. Desde principios de la guerra, todo eso está en manos rusas. Construida -como casi toda la infraestructura de esta parte del planeta- por la vieja Unión Soviética, con sus 6 reactores VVER de 1000 MWe cada uno, Zaporiya sigue siendo hoy la mayor fuente de potencia nuclear de toda Europa, con 5700 MWe netos. Los reactores son clonalmente idénticos entre sí, un modelo de PWR (Pressured Water Reactor) particularmente exitoso por sus estadísticas de seguridad y disponibilidad. A casi medio siglo de su diseño, la empresa nuclear rusa Rosatom los sigue exportando a China, la India, Turquía, Bangla Desh, Egipto y Hungría, en versiones “polenteadas” de 1200 MW. Con estos VVER, Rusia logró que los países nucleares emergentes se olvidaran de Chernobyl. Aquí no pasa año sin que Rosatom se los ofrezca a la Argentina. Aquí, pido perdón por una disgresión inevitable. Zaporiya es una región todavía muy poblada, pese a la guerra. No parece el sitio más adecuando para un “meltdown”, o derretimiento de núcleo. Tampoco sería bueno repetir aquí ese “first timer” mundial que fue el incendio de piletones de combustible gastado protagonizado en 2011 por la unidad 4 del complejo nuclear de Fukushima Daiichi en Japón. Era una General Electric MK1 estadounidense. Pero aquel piletón de combustibles gastados se quedó en seco porque estaba absurdamente colocado en la azotea del edificio del reactor, que se rajó por acción de un terremoto, y se vació a cataratas. Primer incendio en la historia nuclear de un piletón de enfriamiento… ¡¡y en un reactor apagado!! Los edificios de contención de los reactores 1,2 y 3 del complejo Fukishima Daiichi, también GE MK1, reventaron por explosiones de gas hidrógeno combinado con oxígeno atmosférico. El hidrógeno se generó por el recalentamiento de los elementos combustibles de los núcleos de dichos reactores, cuando se quedaron sin circulación de agua refrigerante. Y eso de la falta de circulación sucedió porque las bombas de refrigeración se quedaron sin electricidad. ¿Y por qué se quedaron sin electricidad? Porque el terremoto, un Richter 9, el más poderoso de la historia registrada de Japón, volteó la red eléctrica. Sí, lector, las centrales nucleares funcionan con electricidad de red, más o menos el 10% de la que inyectan a la red. Cuando se cayó la red de Fukushima 1, 2 y 3, la electricidad para bombeo en emergencia quedó a cargo de 3 respectivas unidades diésel… que se apagaron tapadas por el mar, cuando 55 minutos tras el terremoto sobrevino un tsunami de 14 metros de altura. ¿Pero a quién se le ocurre colocar los grupos diésel en la planta más baja de una central costera en el país más sísmico de la tierra, el sitio que patentó la palabra «tsunami»? No alcanza con un solo idiota o turro para ello. El diseño fue de la General Electric, y la Nuclear Regulatory Commission de los EEUU lo licenció, pese a los gruñidos y protestas de varios de sus mandos medios. Y a la TEPCO, la “utility” eléctrica más grande de Japón, la idea le pareció encantadora. Montar enormes máquinas diésel en altura es más caro. También le gustó sobremanera a TEPCO que hubiera un único motor diésel de back-up en cada central (aquí en Argentina ponemos 3 o 4). También le gustó que como todo back-up de los diésel hubiera unos insulsos bancos de baterías con apenas 12 horas de carga. También el poner esas baterías en la planta baja, por supuesto, lugar donde un tsunami las pone en cortocircuito al toque.  
Se incendian los tanques de gasoil de los motores de respaldo de las centrales Fukushima Daiichi 1, 2 y 3.
A este diseño piojoso hay que añadir que el diseñador usó una correlación potencia térmica/volumen de recipiente y de edificio de contención vergonzosamente alta. Estos reactores tenían una potencia térmica desmesurada para recipientes de presión y edificios de contención de volumen demasiado bajo. Nuevamente, ahorros y cortapisas en todo el diseño. Hagámoslo baratito, así lo compran los giles. Y a la Japan Nuclear Regulation Authority le pareció todo excelente: si era yanqui, era bueno, como el baseball. Las ocupaciones militares generan colonialismo mental, y viceversa. ¿Cómo nos iban a ganar una guerra los autodenominados americanos, si no son semidioses? El problema es cuando esta mentalidad de esclavo se vuelve ingeniería de infraestructura. Para empeorar con talento local las cicaterías del fabricante estadounidense, TEPCO decidió instalar el monumental complejo nuclear a 10 metros de altura en una barranca de 30 metros. ¿Por qué no arriba del todo, en una costa tan sísmica? ¡Hombre, ni se pregunta! Para no gastar electricidad al cuente (aunque es lo que produce y vende TEPCO). ¿Gastarla en qué? En bombear hasta tan arriba el agua fría del mar para condensar el vapor que gastan las turbinas. Cuando los motores diésel y las baterías se apagaron y los combustibles se pusieron al rojo blanco por el calor residual, el zircaloy (aleación de zirconio) de sus vainas catalizó la descomposición del vapor de agua en hidrógeno y oxígeno. Dicho en cortito: FSSSSS. El hidrógeno, estimados lectores, es un elemento que odia estar en estado puro: trata desesperadamente de combinarse de nuevo con oxígeno y volver a formar agua. Pero ésa, la formación de agua, es una de las reacciones más exotérmicas de la química inorgánica. Dicho en cortito, PUMM. Pero tres veces, una en cada central. Hubo tres explosiones químicas aterradoras, y los recipientes, nada robustos, y los edificios de contención (ídem) reventaron como sandías, y liberaron productos de fisión de uranio a lo grande en la atmósfera, el agua y la tierra. El ahorro un tanto criminal no es una prerrogativa del capitalismo. Conozco un solo diseño peor y más destripado de sistemas de seguridad activa y pasiva que el GE MK1. Es el RBMK 1000 soviético que estalló en 1986 en Chernobyl. Originalmente el RBMK era un pequeño reactor plutonígeno militar, hasta que a algún economista se le ocurrió que, en tamaño muy grande, podía producir electricidad barata. Justo en un momento en que la URSS tenía que destinar casi todo su petróleo a exportación sin poder quemarlo «en casa». Es que vivía de esos dólares y un pacto de sobreproducción entre EEUU y Arabia Saudita había derrumbado el precio del barril, de U$ 30 en 1985 a U$ 10 en 1986. El factor común de ambos diseños, el GE MK1 yanqui y el RBMK soviético, aunque son máquinas muy diferentes, es el estar enérgicamente destripados de sistemas caros de seguridad pasiva y activa. Presentado a la Comisión Nacional de Energía Atómica de la Argentina cuando la licitación de Atucha I, en 1967, el GE-MK1 aquí fue rechazado a libro cerrado. Es ese tipo de ingeniería tramposa que termina generando miniseries -también tramposas- de HBO o de Netflix. En cambio, el VVER siempre fue, desde sus primeras unidades de baja potencia, un ejemplo de buen reactor. Muchos lo consideran un pelito mejor que los PWR occidentales derivados del Westinghouse que propulsó el submarino Nautilus, en los que se inspira. Este diseño soviético prefiere resignar un poco de potencia con temperaturas y presiones algo más bajas en el circuito primario. También gasta en recipientes de presión de buen acero y gran volumen, y edificios de contención muy espaciosos y robustos. Nada demasiado innovador, pero el resultado es difícil de romper desde afuera o desde adentro. Hoy las VVER son el Toyota Corolla de esta industria, las centrales más vendidas del mundo. Con esto quiero decir que un accidente nuclear en Zaporiya hay que fabricarlo, es difícil que suceda sin ayuda. Pero aparentemente, existe la decisión de que sí suceda, o al menos de fingir que existe esa decisión. El complejo ya se quedó 7 veces sin electricidad de red debido a los tiros de artillería contra las líneas de alta tensión que entran a la planta. Ante la imposibilidad material y de yapa moral de tener semejante bestia de instalación colgada permanentemente de los generadores diésel de back-up para refrigerar las 6 centrales, los rusos decidieron enclavarlas: hace 8 meses dejaron 5 en parada fría y 1 en parada caliente. No lo aclaran, pero ésta última seguramente podría volver fácilmente a criticidad y dar electricidad en caso de nuevos apagones de red. Por ahora, Zaporiya no produce potencia: la consume, y no poca, y se gasta mayormente en refrigeración.  
El compatriota Rafael Grossi el 4 de marzo de 2022 en rueda de prensa, explicando los riesgos de Zaporiya entonces sometida únicamente a ocasionales obuses de 155 mm dirigidos a sus líneas de alimentación eléctrica. Ah, aquellos días felices…
En la inmensa dársena de enfriamiento de combustibles gastados frente a la planta hay agua para refrigerar tanto las 6 centrales como los piletones durante unos meses, reciclándola, ya que ninguna de las 6 máquinas está generando potencia, y no hay vapor de turbinas a condensar. Eso permite servirse de una fuente fría (o sumidero de calor) más bien escueto y tibio, en comparación con el embalse. De las muchas situaciones precarias creadas por la guerra en el complejo nuclear, ésta es la menos peor. En la central hoy están amarrocando hasta el agua de los canales de descarga de agua caliente. La dársena es una enorme instalación sobreelevada varios metros sobre el pelo de agua habitual del lago. Son grandes piletas al aire libre, con pérdidas por evaporación muy altas y ni te cuento en verano. Nacida Zaporiya con un embalse artificial de 19 km3 de agua a pie de planta, ningún ingeniero nuclear soviético pensó que el piletón o el circuito terciario, que enfría el vapor de turbinas, pudieran jamás llegar a quedarse en seco. Todo intento ruso de reabastecer de agua fría el complejo, por ejemplo trayendo camiones de bombero para succionar agua desde el Dniéper, podría ser blanco de artillería y de misiles. Quien corteja el desastre nuclear está perdiendo la paciencia y el disimulo. Por algo nuestro compatriota Rafael Grossi, director del Organismo Internacional de Energía Atómica (OIEA), exhorta a ambas partes a no hacer cabronadas con la dársena. A saber, romperle la pared a misilazos, por ejemplo, y dejarla vacía, como la terraza del edificio 4 de Fukushima, aunque aquí hay décadas de combustibles gastados y calientes aún de 6 centrales: todo es mucho mayor. Entiendo que el director de un organismo multilateral de las Naciones Unidas deba decir: “Yo, argentino”, e incluso hacerse el sueco. También entiendo que los multimedios argentinos abrochados financiera, política y mentalmente a los EEUU y la UE la jueguen de imparciales. Allá ellos. Como periodistas de investigación, elegimos no incurrir en eso: el daño causado por la voladura de Nova Karjovka va tan absolutamente en detrimento de todo interés ruso que le falta venir con firma. Es obvia. No hace falta ser ingeniero agrónomo o nuclear para verla. Quizás seamos un poco idiotas, pero con un límite: no nos pagan por serlo. Dicho esto, algunas otras reflexiones: no debe haber sido fácil romper la represa de Nova Karjovka: es un terraplén construido por varias capas de material suelto y con núcleo impermeable. Es recto, transversal al cauce fluvial, de 3,2 km. de longitud en el coronamiento, obra terminada en 1956. Hasta el miércoles 6 de junio, conservaba sus 30 metros de borde libre, la altura entre el coronamiento y el nivel óptimo del agua embalsada. Sobre qué pudo derrumbar semejante estructura, la hipótesis más explicativa es la de Binkov’s: cargas explosivas en la base de la pared aguas arriba, para aprovechar el martillazo colosal de la onda de choque en un fluído no compresible. Las partes más débiles del cierre, o al menos las menos impactadas, son las dos que desaparecieron. Suman unos 85 metros de hormigón ciclópeo. La represa es una estructura de gravedad, ergo equilibrada contra la presión del agua por su propio peso, algo alivianado por contrafuertes. La parte destruida no es mero terraplén inerte, sino que contiene actuadores: las planchas de acero que abren y cierran las esclusas de alivio mediante grúas puente que ruedan sobre rieles. Desaparecido está también gran parte del edificio de máquinas donde giraban tres turbinas que sumaban 351 MWe. En el derrumbe de un dique, sea por taras de diseño, por un terremoto o por acción enemiga, alcanza con abrir una pequeña brecha inicial: la correntada hace el resto.  
La estructura típica de los terraplenes de los diques de gravedad, de materiales sueltos respaldando el núcleo de arcillas impermeables. Sólo el agua puede romper este cerramiento.
Las ganas de liquidar la represa son tan viejas como esta guerra, y el objetivo más redituable, entre los varios a los que pasé revista, parece ser el complicar el enfriamiento del complejo nuclear de Zaporiya. Eso no quiere decir que quien perpetró esta cagada esté dispuesto a ir hasta el final y causar un accidente nuclear de grado INES 7, como el de Chernobyl o el de Fukushima. Quizás le alcance con mostrar que si quiere puede hacerlo, y que está seriamente tentado. Pero creo que está mostrando demasiada temeridad como para ser paisano de esos pagos del Dniéper. Tampoco se ve demasiado amor por la tierra, al menos por esta tierra, en haber eliminado la base de sus canales de regadío, aguas arriba de la represa, y la erosión de la capa fértil causada por la inundación aguas abajo. Nature habla de daños a la producción que durarán décadas. Las inmediaciones del Dniéper, con sus suelos negros tipo chernosol, tienen una producción prodigiosa de cultivos industriales de grano grueso y fino: girasol, trigo y hasta maíz, complementados por industrias de harinas y aceites. Un tercio del trigo producido en el mundo viene de estos pagos. Pese a sus inviernos duros, desde que llegaron al Dniéper los embalses y el regadío, esas llanuras fueron la panadería de la URSS, y hoy lo son de Ucrania, Rusia, Belarús y los países árabes del Magreb, Egipto, Medio Oriente, el Cuerno de África e incluso la atribulada República del Congo. Esos suelos hoy se quedan sin regadío, sólo con agua de lluvia (400 a 600 mm/año). Se quedan también con la amenaza de ser espolvoreados por las voladuras de los fondos del lago Kajovka, llenas de contaminantes industriales, algunos de ellos «forever chemicals» (no desaparecen por acción bacteriana o de la intemperie, sino que ingresan en las cadenas alimenticias y se concentran en sus escalones más altos). Estos suelos se quedan también con la incógnita de un posible accidente de tipo INES 7 en alguno de los 6 reactores de Zaporiya, que inutilice la tierra regándola de cesio 137, iodo 131 y otros productos de fisión. Aunque la política de retroceder dejando tierra arrasada tiene sobrados antecedentes en la historia regional, los daños químicos y radiológicos a la tierra y al agua, a diferencia de los que recibe la infraestructura eléctrica, son duraderos y profundos. No se remedian fumando la pipa de la paz, acordando nuevas fronteras, tirando dólares y reconstruyendo carreteras, líneas férreas y de alta tensión. Son estragos durables y casi permanentes. Garantizan, sumados, una lenta e intratable catástrofe económica, social y política tanto para Ucrania como para Rusia. Ambas partes colapsarían como estados-nación porque el detrimento ecológico y social sería imposible de remontar en tiempos políticos. Los contendientes son países en regresión demográfica, con poblaciones que envejecen y relativamente pocos jóvenes, todavía como efecto cascada, a tres generaciones de distancia, de aquellos 27 millones de jóvenes soviéticos muertos en la Segunda Guerra Mundial. Como decían los jueces romanos: cui bono? ¿Quién sale ganando no sólo si se derrumba el poder en Rusia –algo que, definitivamente, no estaría sucediendo– sino también si ambos estados fracasan? Quien no sufre, sino probablemente se beneficia con semejante desmadre por ahora no tiene muertos propios (admitidos), parece decidido a seguir la guerra hasta la última gota de sangre (ucraniana) y probablemente cuenta con excedentes agropecuarios importantes, capaces de financiar un segundo Plan Marshall. Y de apropiarse luego de las finanzas, vidas y destinos de quienes tengan que agarrarse de ese salvavidas. Y si ese alguien no parece asustado de lo que está haciendo, es porque no es de estos pagos ni tiene que vivir en ellos. Son evidencias indirectas, pero todas, o casi todas, apuntan a los EEUU.

Daniel E. Arias

COMENTARIO DE AGENDAR:

  La conclusión a la que llega Arias -que, frente a los gravísimos daños que ha provocado y provocará la destrucción de la represa a rusos y ucranianos, y a los clientes del cereal de Ucrania – el probable autor intelectual del bombardeo ha sido Estados Unidos- es plausible. Pero cabe recordar que tácticas de «tierra arrasada» han sido usadas en muchísimas guerras -en nuestra historia, Belgrano acudió a ella cuando dispuso el Éxodo Jujeño. Y en esas mismas llanuras donde hoy transcurre esta guerra, esas tácticas han sido usadas una y otra vez, en las historias entrelazadas de Rusia y Ucrania.

Abel B. Fernández

   

Suecia decide favorecer la educación con libros de papel por sobre las pantallas

Suecia canceló su plan de educación digital y financiará la distribución de libros físicos. Detrás de esta decisión está una pregunta que todos pensamos desde la aparición de los kindles, las tablets y los miles de pdf para estudiantes: ¿qué cambia entre la lectura en pantalla y en papel?

.
La ministra de educación sueca, Lotta Edholm, anunció el 15 de mayo que una gran cantidad de los fondos estatales se destinarían a redireccionar sus políticas educativas para volver a utilizar libros de papel (y no pantallas) en escuelas. La medida  se tomó luego de  que se dieran a conocer los resultados de las pruebas internacionales PIRLS, que evalúan la comprensión lectora de estudiantes de primaria. Aunque tal como se comparte en esta nota los suecos mantuvieron un puesto bastante alto y superan en puntaje al promedio de la Unión Europea, están por debajo de los resultados alcanzados en la prueba anterior. 
.
Edholm denunció que, en muchos casos, la digitalización se asume de manera acrítica como algo positivo sin diferenciar por el contexto o el contenido. Esto nos lleva a una pregunta más amplia, que excede por mucho a las políticas educativas suecas (y nos incluye): ¿cómo ha evolucionado la lectura en pantallas desde su aparición y cuáles han sido sus resultados?
.
Tal como se cuenta en esta breve historia del blog Good reader, los e-books comenzaron a ganar popularidad entre los años ‘90 y los 2000. Su crecimiento fue sostenido y se proyecta para el año 2027 que 1.12 millones de usuarios leerán en pantallas. El dispositivo Kindle, lanzado por Amazon, tuvo una gran importancia en este proceso. De hecho, es considerado uno de los lanzamientos más exitosos de la compañía y su popularidad es tal que hoy acapara el 68% de todo el mercado de los ebooks.
.
Además de sus obvias ventajas a la hora de aliviar peso para viajes o que emite su propia luz para leer en lugares oscuros, los dispositivos de lectura evolucionaron para emular lo mejor posible la experiencia de lectura que ya conocíamos. Los últimos modelos permiten elegir hasta el color del “papel” de fondo y cuentan con una iluminación distribuída para no dañar la vista.
.
En una encuesta conducida por USA Today y Bookish, ya en el año 2013 un 60% de graduados universitarios estadounidenses poseían algún dispositivo de lectura electrónico, de los cuales un 35% aseguraba que leía más desde que lo adquirieron. A esta tendencia, se agrega el empujón hacia la digitalización en muchos aspectos debido a la pandemia, siendo la educación uno de los principales.
.
Education Weekly entrevistó a Marianne Wolf, directora del Centro de Dislexia, Alumnos Diversos y Justicia Social de la Universidad de California respecto a la controversia de lectura digital versus lectura en papel. Ella expresó que no se puede pensar en este problema en términos de “blanco o negro”. Para decirlo de manera más simple, cada formato tiene sus ventajas y desventajas. 
.
Por ejemplo, puede que una tablet sea más atractiva y genere más engagement en los niños porque los atrae de manera casi instintiva. Sin embargo, también pueden  convertirse en un factor más de distracción que de concentración. De hecho, las palabras más comunes que los niños pronuncian cuando se desconectan de las pantallas son “me aburro” (la costumbre de estar sobreestimulados).
.
Consultado por Infobae, Fabio Tarasow, que es coordinador académico del Proyecto Educación y Nuevas Tecnologías (PENT) de Flacso, comparte una opinión similar:
.
 “Más allá de la carga política que se le quiera agregar por las características de la política sueca, la cuestión es pedagógica y no tecnológica (libro o pantalla). Lo importante es qué tipo de actividades se proponen a los alumnos. Podemos favorecer la comprensión lectora y el pensamiento crítico sea con libros o con pantallas, o podemos estimular un aprendizaje memorístico, fáctico e inútil, sea con pantallas o con libros. Lo que cuenta es la propuesta didáctica, qué actividades tienen que hacer los alumnos a partir de la información, qué problemas van a resolver, cómo van a procesar y transformar la información en conocimiento.”
.
Tal como sugirió la ministra sueca, pensando en términos de contenido y no en una oposición abstracta, un estudio realizado por Virginia Clinton (profesora de Educación en la universidad de Dakota del Norte) arrojó el siguiente resultado: si bien la lectura sobre papel parece ser más eficiente respecto a textos informativos o de contenido educativo, no se hallan diferencias significativas en la lectura de textos narrativos. .
Sin irse a ningún extremo, la experta Marianne Wolf concluye: “Los libros son una de las mayores herramientas para el pensamiento y no deben perderse, al menos hasta que nos aseguremos de que los procesos que favorecen no se ven perjudicados por los otros medios de lectura”. (Delfina Montagna).

Gran Bretaña rechaza la participación de la Fuerza Aérea Argentina en el festival aéreo RIAT 2023

Según fuera informado mediante un breve comunicado oficial de la organización del Royal International Air Tattoo (RIAT 2023), la Fuerza Aérea Argentina (FAA) no participará del festival a desarrollarse los días 14 al 16 de julio en la Base Aérea Fairford en el Reino Unido. El sitio oficial del airshow anunció que “el Boeing 737 argentino previamente anunciado ya no participara en el Royal International Air Tattoo 2023”.

La presencia de la FAA había sido confirmada con la participación del Boeing 737-700 T-99 “Islas Malvinas” semanas atrás, lo cual resultó llamativo dado que luego de Guerra de Malvinas en 1982, la FAA no participo del RIAT. Según el sitio británico gloucestershie.co.uk, al denominación del T-99 habría generado malestar en asociaciones de veteranos del conflicto que enfrento a ambos países en 1982, pese a haber sido aprobada su presencia por el Ministerio de Defensa del Reino Unido y la Royal Air Force previamente.

El “Islas Malvinas” tenia prevista su exhibición estática en plataforma durante el evento, considerando que se trata de un avión de transporte sin capacidad para desempeñarse en misiones especificas. En la ultima participación de la FAA, en 1981, el KC-130 TC-70 fue afectado al RIAT, recibiendo junto a su tripulación el primer puesto en la competencia de búsqueda y rescate mediante la distinción “Best non ASW crew”. Este galardón tuvo un gran valor ya que el TC-70 compitió contra medios especializados en lucha antisubmarina y SAR marítimo.

Hasta el momento, desde medios británicos, indicaron que ni desde la Royal Air Force (RAF) ni la Fuerza Aérea Argentina emitieron comentarios al respecto o un comunicado oficial.

Noticias sobre la presencia de Argentina en el espacio: SAOCOM y ALOFT

0
La Comisión Nacional de Actividades Espaciales, CONAE, es la agencia encargada del plan nacional espacial del estado argentino. Para cumplir las funciones cuenta con información espacial generada por satélites construidos y diseñados en la Argentina y opera junto con INVAP (empresa pública de innovación tecnológica) en Bariloche, y con la NASA, la principal agencia de Estados Unidos. La agencia del Gobierno nacional, junto al Instituto Nacional del Agua (INA) y el Instituto Nacional de Tecnología Agropecuaria (INTA), pudo concluir a mediados de abril, que el río Colorado, clave para la producción agrícola, registró una caída de hasta 60% en la oferta hídrica.

Buscando agua

Los satélites SAOCOM entraron en acción ya que la CONAE confirmó que los satélites podían proveer información clave para el caso. “Aportamos a este convenio todas las bases de datos satelitales que tiene la CONAE, con un fuerte énfasis en los datos de la constelación SAOCOM 1, para analizar variables que asistan al monitoreo de la cuenca, como el equivalente en agua de nieve y el momento en el cual la nieve empieza a fusionarse, ya pudimos reconstruir escenarios de información histórica”, explicó Romina Solorza, de la Gerencia de Observación de la Tierra de la CONAE.
“Los satélites de la misión llevan un instrumento radar de apertura sintética cada uno, que son polarimétricos y operan en la banda L del espectro electromagnético”, explica Laura Frula, investigadora principal de la Misión SAOCOM. “Esto les da la ventaja de la capacidad de penetración por debajo de la superficie terrestre y también de la posibilidad de identificar existencia de agua en la superficie terrestre y por debajo de ella”, añadió. Sofía Teverovsky, quién también integra la Gerencia de Observación de la Tierra de la CONAE, detalló que “los datos satelitales son muy importantes para el estudio de la cuenca ya que pueden obtener información pixel a pixel de todo el área, pueden medir diferentes parámetros de la nieve del caudal de río. Con la información del radar del SAOCOM podemos confeccionar mapas de nieve con una resolución espacial de 10 metros”, destacó.
La imagen 1 muestra la variación del equivalente en agua de nieve utilizando datos SAOCOM 1A. La imagen 2 muestra el índice de nieve obtenido en base a imágenes ópticas del satélite Landsat 8 (CONAE).

Al servicio del sector agrícola

Frulla comentó que el foco de la SAOCOM está en el sector agropecuario. Se utilizan los datos que aportan para predecir los cultivos y cuánto van a rendir. “Se generan mapas de humedad de suelo, que son los objetivos de emisión. Y a partir de estos mapas, se generan mapas de pronóstico de fusariosis en el trigo, estimación de rinde de los principales cultivos de nuestro país, tales como soja, maíz, trigo y girasol, eso principalmente en la región pampeana, aunque también se puede generar fuera de la región pampeana, pero la región pampeana es la zona en la que se cultiva por excelencia este tipo de cultivos”, explicó. Los satélites SAOCOM cuentan con dos misiones, el 1A, lanzado al espacio en 2018,  y el 1B, lanzado en 2020. Se encuentran equipados con un Radar de Apertura Sintética (SAR) en banda L, desarrollado en la Argentina, único en el mundo, y que se destaca por obtener información de día y de noche, e independientemente de las condiciones meteorológicas.
Ejemplo de Mapa de Humedad de Suelo (CONAE).
La información que brinda SAOCOM 1 ayuda a que los productores sepan cuál es el estado de humedad del suelo, de esta manera pueden decidir cuál es el mejor momento para la siembra, la fertilización, la cosecha y el riego óptimo, entre otros aspectos, en cultivos como soja, maíz, trigo y girasol. Los datos que proporciona la misión SAOCOM son gratuitos para los argentinos y los residentes de Argentina. “Hay distintas posibilidades para acceder a los datos de SaoCom. A ver, una forma es, desde ya todos los datos SaoCom que se encuentran en el catálogo, que están ya adquiridos, están bonificados para aquellos usuarios cuya área de interés es la Argentina. En este sentido, esta gente solo tiene que registrarse a CONAE y aceptar la licencia de uso con un clic. Eso es nuevo relativamente y es algo que se estableció para facilitar el uso de la información”, desarrolló Frulla.

Los minisatélites

El proyecto Autonomous LEO Formation Flying Technology (ALOFT), es una misión satelital de CONAE conformada por Cube-Sats, dos nanosatélites casi idénticos, con los cuales busca experimentar y validar tecnologías de vuelo en formación y comunicación Inter satelital.
Satélites de la misión ALOFT (CONAE).
“La CONAE aspira a situar a nuestro país como un promotor destacado de la nueva tecnología de sistemas satelitales distribuidos en vuelo en formación, Lo que caracteriza a este nuevo paradigma es el control preciso de las geometrías relativas de vuelo coordinado”, explicó el ingeniero Martín España, integrante de la misión. Los satélites ya no formarán parte de constelaciones, sino de enjambres. Este concepto consiste en un conjunto de satélites volando en una configuración de visibilidad mutua en la misma órbita y manteniendo sus posiciones relativas de manera segura pero relajada. “El Proyecto de Tecnología de Vuelo en Formación Autónomo ALOFT de la CONAE está compuesto por dos satélites tipo Cube-Sats, de 30 centímetros de diámetro y con la tecnología más avanzada disponible, equipados con micro-propulsores, un receptor GNSS de última generación (multi constelación y multibanda), diseñado por la Universidad Nacional de La Plata (UNLP), y enlaces de comunicación Inter satelital”, señaló explícitamente Leonardo Comes, gerente de Gestión Tecnológica de la CONAE. Se espera que los satélites, los cuales están equipados con micro-propulsores, un receptor GNSS de última generación (multi constelación y multibanda) y enlaces de comunicación inter satelital, sean lanzados en tres años, a una órbita de entre 500 y 700 kilómetros de altura sobre la Tierra. “Una misión de demostración tecnológica cuyo objetivo es lograr el dominio de tecnologías habilitantes. En particular se busca probar conceptos de comunicación inter satelital y algoritmos propios de control y de navegación en tiempo real, que apuntan a dominar el vuelo en formación”, contó Comes. “Necesitamos dominar ciertas tecnologías básicas que vamos a probar con ALOFT, como la comunicación inter satelital, para comunicar múltiples plataformas, y el vuelo en formación”, añadió. El proyecto ALOFT se comienza a incursionar en un paradigma del desarrollo satelital, con misiones de arquitectura segmentada. “Lo que caracteriza a este nuevo paradigma es el control preciso de las geometrías relativas de vuelo coordinado. Esto permite obtener datos sobre nuestro planeta en forma simultánea de una misma escena en la Tierra desde múltiples puntos de vista, lo cual resulta un salto cualitativo respecto de la información hasta ahora aportada por sistemas monolíticos y mono-estáticos”, explicó el gerente de gestión. Estos pequeños satélites trabajan de manera colaborativa, comparten recursos y combinan datos de sus respectivos instrumentos. Una de las incógnitas que se presentan al hablar de un nuevo proyecto es la idea de saber a quienes ayudarían esos nuevos datos. Leonardo Comes explicó que “todos los sectores, hoy en día usuarios de la información espacial, se verán beneficiados con este tipo de información, que es posible obtener mediante geometrías autónomamente controladas de sistemas satelitales distribuidos”.

Llega la carne hecha en laboratorio ¿Se van los feedlots?

0
El pasado noviembre, la Administración de Alimentos y Medicamentos de Estados Unidos (FDA) declaró que la carne cultivada en laboratorio era segura para el consumo, despejando así el camino para que los tejidos cultivados compitan con otros alimentos en Estados Unidos. Aunque no es el primer país que sigue este camino, la decisión de la FDA supone un paso de gigante para un sector emergente que podría cambiar nuestra forma de abastecernos de proteínas. En este boletín de Business Insight examinaré las oportunidades y los retos que nos aguardan. ¿Qué tipo de carne se cultiva en laboratorio? Casi cualquier tipo. Varias empresas se están preparando para producir carne de vacuno, pollo, cordero y cerdo, además de algunos mariscos, como gambas y atún. Singapur está a la cabeza del mundo, ya que será el primero en aprobar un producto cárnico cultivado en 2020. Un restaurante ya vende nuggets de pollo cultivado en laboratorio por 23 dólares la ración. Sigue siendo caro, pero bastante más barato que en 2013, cuando la primera hamburguesa de ternera cultivada costaba unos 250.000 euros. ¿Por qué Singapur es la capital de la carne cultivada en laboratorio? El país importa alrededor del 90% de sus alimentos, lo que lo hace vulnerable a los problemas de la cadena de suministro y a las oscilaciones de precios. En 2019, introdujo la campaña «30 by 30» para cultivar el 30% de sus alimentos para 2030, incluida la carne cultivada en laboratorio. Ahora, las empresas de carne cultivada acuden en masa a Singapur con la esperanza de vender sus productos. ¿Cómo se «cultiva» la carne? En primer lugar, hay que elegir el tipo adecuado de células para cultivar, normalmente extraídas del animal en cuestión mediante una biopsia inocua. Las mejores células deben prosperar en un biorreactor y ser capaces de dividirse bien, preferiblemente para siempre. Parte de la receta es un medio de crecimiento celular que aporte los nutrientes necesarios en los momentos precisos para controlar el desarrollo. Se trata de un ingrediente tan importante para el éxito que la mayoría de las empresas mantienen su mezcla en secreto. Las materias primas de este medio -azúcares, sales, vitaminas, aminoácidos, proteínas, etc.- son suministradas por empresas más conocidas por abastecer a la industria farmacéutica, como Merck KGaA , Thermo Fisher Scientific, Sartorius y otras. Esto las convierte en partes importantes de este mercado emergente. Timothy Olsen, responsable de carne cultivada de Merck KGaA, me dice: «Los grandes retos son la escala y el coste». Dice que entre el 80% y el 90% del coste de los medios de cultivo está en el suplemento que contiene proteínas como la albúmina y factores de crecimiento que estimulan la proliferación celular. «Muchas empresas están innovando para reducir este coste», afirma, por ejemplo ampliando y mejorando los procesos de fabricación o alterando las células con ingeniería genética para que no necesiten tantos factores de crecimiento. ¿Y eso produce una pechuga de pollo o un filete de ternera? No del todo. El proceso da como resultado una especie de pasta que puede convertirse en nuggets o hamburguesas. Hacer carne estructurada, como pechuga o filete, requiere un montaje más sofisticado que alinea y flexiona el tejido muscular, tal como ocurriría en un animal vivo. Para ello se necesita un andamio tridimensional comestible sobre el que crezcan las células, como el colágeno. También necesita algún tipo de sistema de tuberías, o vascularización, que sustituya a los vasos sanguíneos y mantenga a las células dentro de la estructura bien abastecidas de nutrientes. Esto es más complejo y costoso, pero produce una carne de mucho más valor. Entonces, ¿se obtendrá carne cultivada con el mismo sabor que la de verdad? Pues no. La mayor parte del sabor que asociamos a la carne procede de la grasa, afirma Max Jamilly, cofundador de Hoxton Farms, una start-up biotecnológica con sede en Londres que cultiva grasa. «Es la grasa la que hace que la carne chisporrotee y huela como huele». Sin grasa, sólo hay trozos de proteína. ¿Cómo se añade la grasa? Las células grasas se cultivan de forma similar a las células cárnicas. Jamilly afirma que el sabor de la grasa es casi infinitamente variable, dependiendo de las condiciones en que se cultive. Por ejemplo, los cerdos ibéricos españoles se alimentan de bellotas que añaden ácido oleico a su grasa para producir un rico sabor cremoso. «En nuestros biorreactores lo podemos ajustar fácilmente», me dice Jamilly. Y si añadimos otros ingredientes, podemos crear sabores totalmente nuevos. ¿Tiene otros usos la grasa cultivada? Sí. Jamilly se dirige en primer lugar al mercado de la carne de origen vegetal, cuyo valor aumentará hasta los 25.000 millones de dólares anuales de aquí a 2030 sólo en Estados Unidos, según el analista empresarial Grand View Research. «Añadir una pequeña cantidad de grasa cultivada puede hacer que la carne de origen vegetal no se distinga de la auténtica», afirma Jamilly. Con una inversión de más de 25 millones de dólares, la primera planta piloto de Hoxton Farms abrirá sus puertas en Londres a finales de este año, con capacidad para producir grasa a escala de toneladas al mes. ¿Cuándo tendremos la oportunidad de comer esto? Varias empresas están preparando la producción. En 2021, Upside Foods, con sede en Berkeley (California), recaudó 186 millones de dólares para crear una planta piloto de producción. Casi al mismo tiempo, la start-up israelí Believer Meats (antes Future Meat Technologies) recaudó 347 millones de dólares para construir sus instalaciones. Como resultado, el coste de la carne cultivada en laboratorio está bajando rápidamente, y Believer Meats es ahora capaz de fabricar una pechuga de pollo cultivada por unos 1,70 dólares. ¿Cuáles son los retos para una mayor ampliación? La necesidad de más trabajadores cualificados. Jamilly dice que necesita biólogos de células madre, ingenieros de tejidos, ingenieros de bioprocesos y científicos alimentarios. Y necesita chefs que ayuden a crear una nueva generación de productos alimentarios. Todos estos conocimientos están muy solicitados, entre otras cosas porque son fundamentales para otras industrias, como la farmacéutica. Pero las universidades se están poniendo al día. La Universidad Tufts de Boston ya ofrece un curso de agricultura celular para enseñar estas técnicas, y el University College de Londres está planeando algo similar. ¿Ayudan los gobiernos? La mayoría de los países exigen que se aprueben nuevos tipos de alimentos antes de venderlos al público. Singapur va a la cabeza, y Estados Unidos está bien situado, con planes para poner a la venta varias carnes cultivadas a finales de este año. Pero otros corren el riesgo de quedarse atrás. Jamilly afirma que el Reino Unido corre el riesgo de perder una oportunidad porque su Agencia de Normas Alimentarias (FSA) no es tan fácil de manejar como las instituciones análogas estadounidenses. «El gobierno podría ser mucho más receptivo». Por su parte, la FSA dice que no ha recibido ninguna solicitud de autorización. «Es importante reconocer que la carne cultivada es un tipo de alimento muy diferente a cualquier otro que tengamos en nuestras estanterías», afirma Robin May, asesor científico jefe de la FSA. «Aunque estamos dispuestos a apoyar a las empresas que trabajan en proteínas alternativas, siempre ponemos al consumidor en primer lugar para que pueda seguir confiando plenamente en los alimentos que consume». En última instancia, todo depende de si la gente quiere comer carne cultivada. ¿Quieren? Parece que sí. La ausencia de crueldad animal la hace atractiva y algunos expertos religiosos han declarado que la carne cultivada puede clasificarse como kosher y halal. A los ecologistas les gusta la menor huella de carbono que persiguen la carne y la grasa cultivadas. ¿Qué es lo que no gusta? Grand View Research calcula que el mercado mundial de la carne cultivada tendrá un valor de 6.900 millones de dólares en 2030. De un modo u otro, es probable que pronto la comamos.

Comentario de AgendAR:

Hay dos unidades métricas que tiene que sobrepasar esta industria, medibles contra kilo de producto generado hipotéticamente imposible de distinguir de una carne homóloga de origen animal. Una es el costo total de producción en moneda firme, y la otra, el costo en carbono añadido a la atmósfera. Hay un tercer baremo: la comparación de contaminantes del agua y el suelo generados en cada caso. Por ahora, creo que el kilo de lomo producido a campo en Argentina va a seguir siendo más barato y de menor impacto ambiental que cualquier ersatz de bioingenería. Es más, la ganadería Voisin o Savory construye suelo fértil, es decir saca CO2 del aire y lo fija al terreno. Singapur podría alguna vez alimentar con carne artificial a los chinos pobres, pero creo que el negocio aquí va a ser darle carne en serio a los chinos ricos. Lo que va a morir aquí es el feedlot.

Daniel E. Arias

La clovibactina elimina eficazmente las superbacterias; un nuevo fármaco proporciona la clave contra la resistencia a los antibióticos

0
Un equipo de investigadores de la Universidad de Utrecht (Países Bajos) dirigido por Markus Weingarth investigó el antibiótico clovibactina encontrado en un tipo raro de bacteria que vive en el suelo arenoso de Carolina del Norte. Descubrieron que este antibiótico mata eficazmente a las «superbacterias», como la bacteria Staphylococcus aureus resistente a la meticilina (SARM). A diferencia de la mayoría de los antibióticos, la clovibactina ataca la pared celular, lo que dificulta la evolución de las bacterias y el desarrollo de resistencias. Utiliza una interfaz hidrofóbica inusual para encerrar el pirofosfato en las bacterias, lo que provoca una falta de resistencia. Como fármaco peptídico dirigido a lípidos, la clovibactina se considera una de las primeras clases novedosas de antibióticos naturales de los próximos 30 años. Recientemente, los expertos médicos han expresado su preocupación por los efectos negativos del uso excesivo de antibióticos. Esta práctica ha provocado el aumento de las «superbacterias», que pueden resistir a muchos antibióticos existentes. Por ello, infecciones bacterianas que antes eran tratables ahora pueden suponer una amenaza para la vida. La clovibactina se encuentra actualmente en la fase inicial de desarrollo y aún debe someterse a pruebas rigurosas antes de que se apruebe su uso en humanos. Si los investigadores demuestran su eficacia en los ensayos clínicos, puede ser un potente fármaco para acabar con las bacterias resistentes a los antibióticos. El descubrimiento de la clovibactina supone un gran avance médico porque ofrece una posible solución a los problemas de la resistencia a los antibióticos. También pone de relieve la importancia del uso responsable de los antibióticos existentes para evitar la evolución bacteriana de la resistencia.

La resistencia a los antibióticos como nueva crisis médica

En 1928, el bacteriólogo escocés Alexander Fleming descubrió accidentalmente la penicilina en el Hospital St. Mary de Londres. Este descubrimiento condujo al desarrollo de los antibióticos, que ayudaron a reducir el número de muertes debidas a infecciones bacterianas. En casi 100 años, los antibióticos han cambiado el curso de la medicina y han ayudado a prolongar la vida humana una media de 23 años.

Sin embargo, el uso excesivo e irresponsable de este medicamento ha provocado resistencia a los antibióticos entre las bacterias. Sólo en Estados Unidos se registran más de 2,8 millones de infecciones por resistencia a los antibióticos, lo que provoca 35.000 muertes al año. Es normal que las bacterias desarrollen resistencia a un fármaco, pero la forma en que se utilizan los medicamentos puede afectar a la tasa y el grado de esta resistencia. La resistencia a los antibióticos se produce cuando microorganismos como bacterias y hongos desarrollan la capacidad de resistir a los fármacos diseñados para matarlos. Esto significa que no mueren y siguen creciendo. Si los antibióticos pierden su eficacia, también perderemos la capacidad de tratar infecciones que antes eran manejables. Hoy en día, la resistencia a los antibióticos se considera una amenaza mundial urgente para la salud pública. Puede afectar no sólo a la salud humana, sino también a otros sectores, como la veterinaria y la agricultura.

Comentario de AgendAR:

Obviamente, la clovibactina todavía no atravesó ningún proceso de licenciamiento, de modo que hasta que esté disponible -si tiene éxito en fase III- pueden pasar años.
Lo novedoso es que parece efectivo incluso contra organismos resistentes a la meticilina y a la vancocimina, que hoy son la última línea de defensa contra infecciones bacterianas.
La clovibactina ataca la pared bacteriana en general, la de cualquier especie. Esto tal vez haga difícil que las bacterias logren generar resistencia. El posible lado malo del asunto: la clovibactina podría ser muy inespecífica y liquidar el microbioma benigno y necesario para la vida.
Lo extraño: es el primer antibiótico en más de 30 años surgido de organismos salvajes, en lugar de «diseñado» en laboratorio.
Daniel E. Arias

El gigante automotriz Stellantis desembarca en el negocio de energías renovables en Argentina

El gigante automotriz global Stellantis, que fabrica las marcas Fiat, Peugeot, Citroën, Chrysler, Alfa Romeo, Jeep, Dodge, Opel y Maserati, entre otras, desembarcó en el negocio de las energías renovables en la Argentina. Si bien todavía no definió comunicarlo formalmente, distintas fuentes del sector confirmaron que acordó el ingreso a 360 Energy, una compañía argentina del sector renovable que opera cinco parques solares en el NOA y está construyendo nuevas plantas de generación fotovoltaica en San Juan y La Rioja. Todavía no se conoce el monto de la adquisición, pero algunas fuentes indicaron que sería por alrededor del 50% de la participación en la compañía renovable argentina.
Stellantis, con sede en Ámsterdam, se creó en enero de 2021 a partir de la fusión entre el grupo ítalo-estadounidense Fiat Chrysler Automobiles y el francés Groupe PSA. En la actualidad es el cuarto fabricante del mundo y el primero en Latinoamérica. La decisión de ingresar al negocio de las energías renovables tiene que ver con una definición global del gigante automotriz de acelerar la electrificación en la transición energética en un plan estratégico conocido como Dare Forward 2030.

Argentina y Brasil

El ingreso a 360 Energy posicionará a la automotriz en el sector renovable en la Argentina, donde tiene una planta de producción en Córdoba y otra en El Palomar (Buenos Aires). Además, 360 Energy y Stellantis planean ingresar a la generación renovable en Brasil, donde la automotriz también tiene fabricas de vehículos. La idea sería construir una planta solar de 65 MW vinculada a las fábricas de autos en los estados de Pernambuco y Minas Gerais. Stellantis lideró las ventas del sector automotriz en el primer trimestre del año en la Argentina con 36.000 unidades vendidas, que representa el 31,8% del mercado local. En producción, Stellantis también lidera el mercado argentino con un crecimiento interanual de 36,4% (más de 40.000 unidades) en comparación a los primeros tres meses de 2022.

Cobre y electrificación

Como parte de la agenda de electrificación, la multinacional Stellantis ya había desembarcado en febrero en el sector minero en el país con la adquisición por US$ 155 millones del 14,2% de la compañía canadiense McEwen Copper, que lleva adelante el megaproyecto de cobre Los Azules en la provincia de San Juan. Según la consultora canadiense Mining Intelligence, está dentro de las 10 principales minas de cobre sin explotar del mundo. El objetivo de Stellantis es asegurarse el abastecimiento de cobre para acelerar la electrificación y liderar la industria automotriz con un compromiso de ser carbono neutral para 2038, según aseguró en un comunicado difundido en febrero Carlos Tavares, CEO global de la multinacional.

«La crisis del cambio climático no se puede pensar sin analizar la inequidad»

0

El Sol todavía no había salido en Argentina cuando la Organización Meteorológica Mundial publicó el anuncio en sus redes sociales: “Prof. Celeste Saulo es elegida nueva Secretaria General de la OMM”. La votación acababa de terminar en un auditorio en Ginebra, Suiza. Y fue histórica. Los representantes de 193 países acababan de elegir, por primera vez en la historia, a una mujer para ocupar el mayor cargo en la OMM.

Pocos minutos después, «Celeste Saulo», «secretaria general» y «OMM» se convirtieron en tendencia. Y luego aparecieron los videos desde el interior del recinto, donde ella misma celebra, aplaude y arenga cuan gol mundialista. Y no es para menos. Su logro es un logro nacional, latinoamericano, pero más de que nada, de género. Saulo es doctora en ciencias de la atmósfera, egresada de la Universidad de Buenos Aires, “hija de la educación pública, que le dio las oportunidades”, como ella ha destacado tantas veces. Hoy tiene 59 años, está casada y tiene 2 hijos. Luego de encabezar el Centro de Investigaciones del Mar y la Atmósfera, de ser profesora titular en la Facultad de Ciencias Exactas y Naturales de la UBA y de investigar en el CONICET, en 2014 hizo historia al convertirse en la primera directora mujer del Servicio Meteorológico Nacional (SMN), organismo que aún preside. Allí, en la sede central del SMN, en el barrio porteño de Palermo, Saulo tiene su oficina, equipada como cualquier otra: escritorio, mesa de reuniones, reconocimientos a su trayectoria profesional. Pero un detalle llama la atención en las paredes. Dos mapas. Uno, es Argentina “invertida”, con Ushuaia y Antártida en el «norte» y Chaco al «sur». El otro, un planisferio centrado en nuestro país. Ambas piezas bien pueden ser indicios de su forma de pensar el mundo, y reivindicar la mirada del sur global.
          Celeste Saulo en su despacho del Servicio Meteorológico Nacional.
.
– ¿Qué tipo de políticas espera implementar para que la OMM tenga una visión más inclusiva respecto de las particularidades de cada país, especialmente de aquellos en vías de desarrollo?

– Sí, efectivamente ese planisferio habla de cómo pienso el mundo y cómo pienso las crisis que atraviesa. Para mí la crisis del cambio climático no se puede pensar sin analizar la inequidad, que también sigue aumentando de manera exponencial. Viniendo de un país en desarrollo, el trabajo tiene que ver con la inclusión, con la diversidad, con trabajar con los servicios meteorológicos e hidrológicos de los países en desarrollo, de los pequeños estados insulares, los países menos desarrollados, entendiendo que no solo es necesario ayudarlos a fortalecerse sino que también es importante empoderarlos, construir y codiseñar las soluciones.

– ¿Cómo se puede articular esa visión con la agenda global frente al cambio climático?

– En la agenda global hay un tema fundamental que es la alerta temprana para todas las personas. El Congreso (de la OMM) decidió que es un tema prioritario. Yo coincido con esa prioridad, pero luego de la experiencia en el Servicio Meteorológico Nacional, sabemos que una iniciativa así requiere el trabajo codo a codo a nivel de territorio. Que no es simplemente una aplicación o un modelo basado en inteligencia artificial lo que nos va llevar a resolver el problema del alerta temprana, sino entender que es un problema mucho más complejo, que tiene que ver con la percepción del riesgo, con el conocimiento del riesgo, con cómo las culturas y las comunidades reaccionan frente a los alertas. En fin, hay un trabajo enorme y ahí es donde vamos a tratar de hacer fuerza en esta gestión.

– Fue la primera mujer en conducir el SMN y ahora es la primera mujer en la secretaría general de la OMM. ¿Qué reflexión tiene al respecto?

– Es un llamado a preguntarse qué pasó hasta este momento. La OMM tiene 150 años, con un dominio centrado en Europa, de donde provinieron la mayoría de los secretarios generales, excepto uno. Mi llegada va a traer una mirada más diversa, del sur global, que es una mirada que estaba faltando. No me planteo solo una agenda de género, sino una agenda de inclusión, donde se tengan en cuenta distintas miradas. Por ejemplo, hoy en nuestra disciplina se habla de los saberes ancestrales. Es decir, del valor que hay en esos saberes, que, a mi juicio, hoy están subvalorados. Es mi objetivo ponerlas en valor junto con la mirada de género.

– Hablando de la experiencia en nueve años al frente del Servicio Meteorológico Nacional de Argentina, ¿Cuáles fueron los principales desafíos que ha tenido que enfrentar?

Creo que un desafío grande fue ordenarlo en el sentido administrativo y procedimental. También, empoderar a trabajadores y trabajadoras para que realmente se apropiaran de un proyecto común, de un horizonte compartido. De la importancia que tiene el organismo y del rol de cada uno en ese proyecto. Jerarquizar al SMN fue muy importante también. Y armar equipos más transversales para trabajar en torno a un plan estratégico del que todos se sintieran parte, para saber hacia dónde ir y qué esperar.

El otro gran desafío ha sido articular mejor con la academia, que era un mandato imprescindible. Había buena predisposición para hacerlo pero no estaban los canales adecuados y pienso que lo hemos logrado. Crear una estructura (orgánica) que superara una estructura básica, que en sí misma todavía hoy resulta insuficiente pero que, sin embargo, nos permitió organizar más y mejor al Organismo; que las expectativas estuvieran acordes a algunos cargos directivos que hoy existen.

– ¿Cuáles considera que fueron los principales logros en estos años al frente del SMN?

– Mejorar toda la cadena de valor. Como pendiente todavía queda fortalecer la red de observación, pero pudimos ordenar las estaciones meteorológicas, atender las necesidades y las prioridades. Fortalecimos mucho la generación de información, la producción de pronósticos, la coordinación y puesta en marcha de nuevos modelos de pronóstico y del sistema que hay detrás el nuevo Sistema de Alerta Temprana.

También trabajamos muchísimo la comunicación, tanto con el público en general como con distintos sectores usuarios. Todos estos fueron enormes desafíos porque no estaban en la carpeta del SMN que yo encontré, y que sin embargo hoy se han hecho parte de nuestro sentimiento en cuanto a qué SMN queremos.

– Su nombramiento es un ejemplo para las mujeres. ¿Cómo se llega a romper con los techos de cristal?

– Creo que lo importante es llevar la pasión y el convencimiento en lo que uno hace a todos los niveles en los que uno trabaja. Toda mi vida trabajé de esa manera y tengo que agradecer tener una familia que bancó ese modo de pensar mi carrera profesional, basada en las convicciones, en las cosas que me gustaban y las cosas en que creía. Eso me dio una fuerza muy grande. Y esa fuerza se nota en la reciprocidad que encontrás cuando la gente ve que trabajas con pasión y con autenticidad, y que realmente querés lo mejor para el conjunto.

– ¿Qué mensaje le daría a las mujeres más jóvenes?

– Creo que el mensaje es que los principios son muy importantes; que las pasiones son enormes motores; que tenemos que tener proyectos y aferrarnos a ellos. Y trabajar en red, porque es la red la que en definitiva termina dándote la posibilidad de dar los grandes saltos. Saber que todos tenemos tropiezos, pero eso no es un impedimento, sino que implica simplemente un aprendizaje, un reintentar y un nunca darse por vencida. Ese es el mensaje que me gustaría transmitir, que se suma al del compromiso con las pasiones que uno tiene.

Saulo asumirá su cargo el 1 de enero de 2024, y su mandato se extenderá por cuatro años. Encabezará la definición de la estrategia de los próximos años para enfrentar los desafíos del cambio climático a nivel global.

Mariela de Diego

El Vision Pro de Apple es una maravilla técnica. Pero inutil

Ciertos productos… cambian nuestra forma de ver la tecnología”, dijo Tim Cook, el jefe de Apple, al presentar el 5 de junio el último gadget del gigante tecnológico. El Vision Pro, un auricular para realidad virtual y aumentada (VR AR en la jerga), cuyo desarrollo se rumorea desde hace años, estará disponible a principios del año que viene. Con más de 5.000 patentes, Apple ha calificado estas elegantes gafas de cristal como “el producto más ambicioso que jamás hayamos creado”.

También es posible que sea uno de los menos vendidos. La empresa esperaba vender unos 3 millones de unidades en el primer año. Pero las expectativas se han reducido; algunos analistas esperan ahora que Apple distribuya menos de 200.000 unidades en 12 meses, un orden de magnitud inferior al de cualquier otro gran lanzamiento de producto. La primera iteración del Vision Pro puede ser un fracaso comercial. Sin embargo, también es el primer paso en el camino hacia algo que Apple espera que sea mucho más grande.

La tecnología, que Apple aún no ha puesto a disposición del público, tiene un aspecto impresionante. A diferencia de otros auriculares, que suelen requerir mandos manuales, el Vision Pro se controla con gestos de la mano, comandos de voz y movimientos oculares. Hace un seguimiento de los ojos como un ratón y reconoce el iris en lugar de una contraseña. Es un dispositivo “de paso”, que utiliza cámaras frontales para mostrar al usuario una vista en vídeo del mundo que le rodea. Y para que parezca más normal a los ojos de los demás, proyecta una imagen de vídeo de sus ojos en la parte frontal del cristal. (Un anuncio de Apple muestra a un hombre preparando el desayuno a sus hijos mientras lo lleva puesto, algo que le costaría hacer con la mayoría de los auriculares).

La principal razón de las bajas ventas previstas es el precio. A 3.499 dólaresel dispositivo es más de tres veces más caro que los auriculares de realidad virtual y realidad aumentada rivales de Meta, el Quest Pro, y más de diez veces más caro que el Quest 2, el dispositivo de realidad virtual de la empresa de medios sociales ampliamente utilizado. Incluso a este precio, el gadget de Apple ha tenido que hacer algunas concesiones técnicas. Tiene una batería externa, conectada a los auriculares mediante un cable, que sólo dura dos horas. Y aunque los diseñadores de Apple han hecho todo lo posible para que sea lo más elegante posible, sigue siendo incómodo ponérselo en la cara.

Estas dificultades han obligado a muchos competidores a replantearse su participación en las realidades virtual y aumentada. Meta parece estar reduciendo su entusiasmo, tras las quejas de los inversores sobre sus gastos y, al parecer, las débiles ventas de la Quest Pro a pesar de una fuerte rebaja de precio desde su lanzamiento en octubre. Microsoft, un gigante del software, ha aparcado la idea de fabricar otras HoloLens, un dispositivo ar que utilizan principalmente clientes corporativos. Snap, otra empresa de redes sociales, no parece tener prisa por sacar una nueva versión de sus ar SpectaclesTencent, un titán digital chino, abandonó sus planes de hardware de realidad virtual en febrero.

Nuevas gafas de realidad mixta de Apple Vision Pro

No es raro que los nuevos productos tarden en despegar. La mayoría de los éxitos anteriores de Apple tardaron varios años en calar. Las ventas del Apple Watch fueron bajas hasta que la gente decidió que su uso clave era para controlar su salud. El iPhone no despegó realmente hasta su cuarta generación, en 2010, momento en el que la App Store se llenó de miles de aplicaciones que hicieron que la gente se diera cuenta de lo que el teléfono podía hacer. Descubrir más usos para el iPhone también ayudó a justificar su precio. El dispositivo se consideraba ridículamente caro cuando se lanzó, con un precio de hasta 599 dólares; hoy en día, el modelo superior cuesta 1.599 dólares, un precio que la gente está dispuesta a pagar porque puede hacer muchas cosas. Quizá Apple pueda normalizar de la misma manera el pago de miles de dólares por unas gafas.

Aun así, Vision Pro se lanza en una fase especialmente temprana. Más que un verdadero producto de consumo, se trata de un “costoso kit para desarrolladores”, afirma un fabricante de componentes de ar. Lanzar un producto orientado a los desarrolladores en esta fase es una “nueva frontera” para Apple, afirma George Jijiashvili, de la firma de analistas Omdia.

Hay dos razones por las que Apple quiere sacar el producto antes de tiempo. Una es la presión competitiva, sobre todo de Meta, que a pesar de haberse reducido un poco, se ha lanzado a la contratación y adquisición de personal con el objetivo de hacer realidad el “metaverso”. Además de captar talentos, Meta ha estado reclutando usuarios. Según la empresa de datos Insider Intelligence, cerca del 10% de los estadounidenses utilizan auriculares de realidad virtual al menos una vez al mes. La mayoría de estos equipos los fabrica Meta, que ha estado vendiendo su Quest 2 con pérdidas para conseguir una masa crítica de usuarios. Este otoño lanzará el Quest 3, un dispositivo que será mucho menos capaz que el de Apple pero, a 499 dólares, una perspectiva más realista para la mayoría de los consumidores.

La segunda razón por la que Apple quiere sacar su producto es porque ya tiene la vista puesta en lo que vendrá después. Los expertos en tecnología llevan mucho tiempo especulando con la posibilidad de tener unas gafas de ar tan finas y discretas como unas gafas de sol, momento en el que los auriculares dejarán de ser algo aparatoso para empollones y se convertirán en algo que la gente normal pueda llevar todo el día. Estos dispositivos podrían incluso sustituir al smartphone como próxima gran plataforma tecnológica. “No creo que nadie dude de que el AR es el futuro”, afirma Jitesh Ubrani, de IDC, otra empresa de datos. En su presentación, Apple calificó el Vision Pro como “el comienzo de una plataforma completamente nueva”.

Gafas medio llenas

La estrategia no está exenta de riesgos. Apple tiene fama de lanzar productos perfectos y pulidos. Lanzar un dispositivo de 3.499 dólares con una batería de dos horas de duración podría equivaler a lo que Steve Jobs, el difunto predecesor de Cook, solía caracterizar como una “retirada de marca”.

Tampoco está claro qué hará la gente con sus dispositivos. Hasta ahora, los cascos de realidad virtual se han utilizado sobre todo para jugar: casi el 90% del gasto en contenidos de realidad virtual del año pasado se destinó a juegos, según estimaciones de Omdia. El Quest Pro de Meta no ha logrado entusiasmar a los profesionales con su promesa de videoconferencias en persona y cosas por el estilo. La presentación de Vision Pro de Apple, aunque característicamente hábil, no tenía nada parecido a una “aplicación asesina”. Hay algunas funciones interesantes, como la posibilidad de hacer fotos y vídeos en 3D, lo que convertiría al dispositivo en un “generador de nostalgia”, según Ubrani. Pero la mayoría de los usos sugeridos por Apple para el Vision Pro parecen implicar tratarlo como una especie de escritorio virtual gigante, utilizando ventanas flotantes de chats de Zoom u hojas de cálculo de Excel, o viendo una película en una pantalla virtual gigante. Nada de esto es tan innovador como la propia tecnología.

El CEO de Apple, Tim Cook, habla bajo una imagen de Apple Vision Pro en el Apple Park de Cupertino, California, Estados Unidos, este 5 de junio de 2023 (Reuters)El CEO de Apple, Tim Cook, habla bajo una imagen de Apple Vision Pro en el Apple Park de Cupertino, California, Estados Unidos, este 5 de junio de 2023 (Reuters)

Aun así, Apple disfruta de grandes ventajas sobre sus rivales. Cuenta con una enorme base de usuarios, con 2.000 millones de dispositivos en circulación. En la presentación de Vision Pro se mostró cómo se sincronizan los auriculares con los demás aparatos de Apple: los usuarios pueden hacer videollamadas FaceTime con sus amigos desde sus iPhones o proyectar la pantalla de un portátil MacBook en los auriculares con sólo mirarlos. Las aplicaciones para el iPhone y el iPad serán compatibles con Vision Pro, lo que significa que habrá cientos de miles de aplicaciones disponibles en el momento del lanzamiento, aunque no estén optimizadas para el dispositivo.

La estrategia de Apple también es sencilla: fabricar los mejores auriculares y cobrar a los consumidores mucho dinero por ellos y, presumiblemente, cobrar también a los desarrolladores una parte de los beneficios de sus aplicaciones, como ocurre en la App Store. Aunque la empresa parece centrada en el objetivo final de ar, eso es muy distinto del metaverso centrado en la realidad virtual del que tanto ha hablado Mark Zuckerberg, su jefe.

Apple también cuenta con una marca de confianza entre los consumidores. En una encuesta realizada en 2021, tres veces más personas afirmaron que comprarían unos auriculares de Apple que de la empresa que ocupaba el segundo lugar, GoogleMeta quedó sexta. También tiene influencia entre los desarrolladores. Tendrá aplicaciones de Microsoft, Zoom y Webex, y una asociación con UnityBob Iger, consejero delegado de Disney y antiguo amigo de Jobs, hizo un cameo sorpresa en la presentación para elogiar la “revolucionaria plataforma” de Apple y mostrar cómo los auriculares podrían permitir al público ver una película de “La guerra de las galaxias” antes de ser transportado en realidad virtual al planeta Tatooine, o ver repeticiones en 3D de un partido de baloncesto en realidad virtual en la cadena deportiva ESPN de Disney. Que Mickey Mouse, o incluso el castillo de Disneyland, aparezcan en el salón. “Acercar Disney a nuestros fans de formas que antes eran imposibles”, como dijo el Sr. Iger, es el tipo de cosa que podría entusiasmar a la gente más que las conferencias virtuales.

Es probable que poca gente pague por el Vision Pro, al menos al principio. Pero Cook, que lo comparó con el lanzamiento del Mac y el iPhone, dijo que era el “comienzo de un viaje”. Es posible que el viaje lleve a algún lugar rentable. Como dice el Sr. Ubrani: “Cuando Apple entra en un mercado, cambia por completo la trayectoria del mismo”.