La tasa de desocupación subió en un año del 9,1 al 10,1% según los datos del INDEC. Este porcentaje significa que en la población urbana -la que se encuesta- hay 1.920.000 desocupados, 220.000 más que un año atrás. Si se incluye la población rural, el desempleo golpea a más de 2 millones de personas.
También aumentó la subocupación pasó del 9,8 al 11,8%. Suman así 2.250.000 personas que trabajan menos de 35 horas semanales, aunque están dispuestos a trabajar más. Son 420.000 más que un año atrás.
Para tener claro este índice, hay que tomar en cuenta que el INDEC considera desocupado a quien no tiene trabajo y lo busca. Si no lo está buscando, no se lo incluye en esta estadística.
Hace sólo un día publicamos una nota sobre el problema de la desocupación en los jóvenes. Todavía no contábamos con estas cifras, pero ya sabíamos que el desempleo juvenil es todavía más alto.
Los medios que acostumbran a publicar las pérdidas de horas y de producción provocadas por los días de para deberían -deberíamos- ayudar a tener claro las pérdidas que el desempleo está causando, todos los días, todas las semanas.
La desocupación es el problema económico y humano que enfrenta la Argentina, que enfrenta cualquier sociedad. Nada hay más grave, en tiempos de paz, que éste.
Nadie está corriendo riesgos en Atucha II. Y no habría cómo, además. Pero vamos a los papeles: circula por la web una denuncia del portal alemán Telépolis (hay una excelente traducción aquí). Su título: “Argentina: maniobra arriesgada en central nuclear”. El supuesto riesgo, aclara el texto, se está tomando con Atucha II. Es un macanazo y la lectura de la traducción evidencia dos cosas:
Telépolis tiene, como todo el periodismo ecologista alemán, algún conocimiento básico de la tecnología nuclear. Asunto que merece nuestro elogio.
También es obvio que en Telépolis no tienen maldita la idea de la ingeniería usada, o de la situación específica de Atucha II.
No se trata de detalles. Lo que Telépolis llama “maniobra arriesgada” y los portales locales retitulan como se les da la gana, es haber devuelto la central a operar a una potencia de 250 MW, un 40% de la nominal tras salir del “Apagonazo” del domingo 16.
Chocolate por la noticia, colegas alemanes: 250 “mega” la potencia máxima operativa de Atucha II desde hace meses, debido a la rotura de una bomba del circuito primario. Seguirá así, por disposición de la Autoridad Regulatoria Nuclear (ARN), mientras no se terminen de filtrar del mismo, con grandes coladores con forma de elemento combustible e interior de malla muy fina, los residuos metálicos que dejó este desperfecto.
Es previsible que una vez que los filtros hayan hecho su trabajo, el primario de Atucha II todavía tenga algo del detritus de esas microvirutas de acero, ya erosionadas a polvillo más fino que las limaduras, y más difícil de remover. Habrá que estudiar en modelos físicos, es decir en el “loop” termohidráulico del Centro Atómico Ezeiza, cómo quitar ese contaminante. O en plan B, estudiar –bajo la mirada poco piadosa de la ARN- cuánta pérdida de vida útil le causará eso a las bombas que impulsan el tremendo torrente de agua pesada del circuito de refrigeración. Las bombas fueron diseñadas para durar 30 años de operación continua, pero si no se eliminan las limaduras, probablemente haya que sustituirlas antes de tiempo por desgaste precoz de los álabes. La cuestión es que eso es más un tema de disponibilidad de la central que de seguridad.
Telépolis se angustia, sin embargo. Supone que Atucha II está llena de xenón 135 (Xe-135), un producto de decaimiento del iodo 135 (I-135) que a su vez es un producto de fisión del uranio 235. Y se equivoca: el inventario de Xe-135 generado por la parada de Atucha II fue bastante pequeño, dado que el núcleo de la central venía funcionando al 40% de su potencia. De modo que tras su parada por desconexión, al volverla a arrancar e ir subiendo despacito de potencia, el Xe-135 va eliminándose por bombardeo de neutrones.
No ha sido lo mismo con las otras dos plantas nucleares criollas, Atucha I y Embalse. Cuando el Apagonazo, venían funcionando a potencia nominal (es decir al 100%). Todavía están en maniobras de arranque para ir quemando el Xe-135. Atucha II, en cambio, hoy entrega 250 MW y todavía está algo debajo del 40% de su potencia nominal. Es el techo que la ARN le permite hoy. Sí, una suerte que no es verano y que el Secretario de Energía, el contador Gustavo Lopetegui, todavía no está desesperado por la demanda de millones de acondicionadores de aire.
Lo que sabe Telépolis sobre Xe-135 probablemente lo acaba de aprender de la serie “Chernobyl”, de HBO, pero lo que entiende de la ingeniería de Atucha II cabe en el reverso de una estampilla y sobra lugar. Una vergüenza, dado que la central es de diseño alemán, una KWU-SIEMENS. La verdad estadística es que todas las máquinas de esta marca, sean de uranio natural como las criollas o de uranio enriquecido como las que hay en suelo germánico o en España, son muy caras, los Rolls Royce de la núcleoelectricidad. Pero así también son de sólidas, y lo demuestra su foja accidentológica.
Que para un periodista alemán hoy la única central nuclear buena sea una clausurada y a espera de desguace, eso para AgendAR es un problema cultural y político de ese país, probablemente transitorio. La desnuclearización a paso de carga de Alemania la transformó en el mayor emisor de carbono de la Unión Europea, por la vuelta a la explotación de carbón propio amén del que importan a manos llenas de Polonia.
Cuando a los mandamases de los países más inundables por eventos ligados al cambio climático respondan con tarifas aduaneras a los grandes contaminadores globales, ahí te quiero ver. Para ponerlo en concreto, según el Banco Mundial, un inmueble inundado 3 veces pierde el 100% de su valor. Terrible para la BMW y la Mercedes, si se inundan Mumbai, Shangai y Londres, donde los ricos aman esas marcas, pero más sus casas y sus ciudades. El que viva, lo verá.
No deje que un físico maneje el diccionario
Heavy water, (deuterium oxide), & water ice cubes.
El
hielo no logra flotar en agua pesada y se va al fondo. Es cara pero tiene
algunas ventajas.
El agua pesada en el circuito primario de nuestras centrales cumple un doble rol: refrigera el núcleo, pero por otra parte posibilita la reacción nuclear. Como el uranio natural es un combustible “pobre” y de baja reactividad, el agua pesada le baja la velocidad a los tres neutrones que en promedio genera la fisión espontánea de un átomo de uranio 235. De este modo, los retiene dentro dentro del núcleo y así logra que haya suficientes como para impactar otros átomos de uranio 235 vecinos, y desatar la famosa reacción en cadena de fisiones.
Si Ud. sustituyera por agua común el agua pesada de nuestras tres centrales, éstas se apagarían de inmediato. Los físicos, bastante alejados del lenguaje intuitivo común, a este rol del agua pesada lo llaman “moderador”, cuando en realidad lo que hace es acicatear la reacción nuclear. Consejo práctico: nunca deje que un físico nuclear le controle el diccionario.
Sin embargo, en un punto los tipos tienen razón. Si por algún evento accidental el agua pesada se recalentara por encima de su temperatura óptima (185º Celsius), dejaría de ralentar los neutrones, estos se “piantarían a la bartola” en lugar de actuar sobre el combustible y la central se iría apagando lentamente.
Ojo, no es una teoría de libro ni un modelo computacional, es otro de los varios sistemas de seguridad pasiva diseñados ad-hoc, en este caso exclusivo de las centrales PHWR, es decir de uranio natural. Cuando se rompió un canal refrigerante en Atucha I en 1988, el moderador se calentó, dejó de moderar y eso fue lo que dio la primera alarma: la central empezó a perder potencia hasta apagarse sola.
Grave problema para la red eléctrica, sumida en apagones a repetición para perplejidad del entonces Secretario de Energía, Jorge Lapeña. Pero de seguridad en la central, todo bien. Aunque en la CNEA los partidarios de la tecnología nuclear alemana estaban a las puteadas: como país, empezábamos a pagar los costos ocultos en la compra de un prototipo. Efectivamente, cuando KWU nos vendió Atucha I sabía bocha de centrales de uranio enriquecido, pero su experiencia con uranio natural y agua pesada no pasaba de la operación de un reactorcito experimental, el MZFR, de 57 MW. Atucha I fue un rediseño «ad hoc» de sus grandes centrales a uranio enriquecido. KWU sólo logró venderlo aquí y a precio de regalo. La CNEA estaba entonces más interesada en la tecnología canadiense CANDU, que es un diseño específico «desde cero» para uranio natural y no una readaptación. Y había dos bandos: los que querían negociar con Canadá, y los que preferían lisa y llanamente hacer una CANDU 100% nacional. De ahí el precio de regalo.Era
¿Cómo terminó la historia de la ruptura de Atucha I? KWU-SIEMENS, generosa, ofreció reparar la central por U$ 200 millones (equivalentes a U$ 430 millones de hoy), parándola 2 años. Era un tercio del precio de una central equivalente nueva, es decir, un robo. La Dra. Emma Pérez Ferreira, a la sazón presidenta de la CNEA, prefirió el “compre nacional”, juntó a INVAP con Techint para diseñar herramientas hasta entonces desconocidas, y reparó a nuevo la planta por US 17 millones, el 8,5% de lo que pedían los alemanes.
Fue el momento en que la CNEA se dio cuenta de que ya entendía más de este tipo de centrales, a fuerza de cliente viejo y entrometido en cada detalle, que su propio fabricante. Una revelación. La SIEMENS contraatacó con todo su equipo de comunicación, preanunciando desastres bíblicos. Pero el trabajo se hizo bajo supervisión de los expertos en seguridad operativa y radiológica del Organismo Internacional de Energía Atómica (OIEA) de las Naciones Unidas, que, terminado el mismo, felicitó a la Argentina.
Jorge Lanata no hizo lo mismo: el titular de Página 12, aquel día, fue “La arreglamos con un alambre”. Causó pánico internacional. El gabinete uruguayo empezó a sesionar secretamente en Paysandú, lo más lejos posible de Atucha I, “ese Chernobyl criollo”.Algún periodismo es aficionado a las catástrofes: el miedo vende bien, y después se olvida.
Volvemos a Atucha II y al año 2019. Telépolis se espanta germánicamente: ¿cómo puede ser que Atucha II esté ya trabajando al 40% de potencia, cuando Atucha I y Embalse siguen paradas? Justamente, porque ya está terminando de quemar lo que quedaba de xenón 135 (Xe-135). Como este radioisótopo absorbe neutrones, tiende al apagado de las centrales, asunto por el cual los radioquímicos (cero en relaciones públicas, estos muchachos) lo llaman “un veneno neutrónico”. Sí, veneno, tal cual. Saben de neutrónica, pero los quisiera lejos del diccionario.
Gracias a la serie de HBO, el público sabe que el RBMK de Chernobyl era inestable por diseño y lamentable por sistemas de seguridad. También sabe que los jefazos soviéticos sabían esto. Los argentinos que están en energía nuclear sabíamos ya desde los ’70, cuando se empezaron a construir los 16 RBMK, que ese diseño era como un camión doble acoplado sin frenos. Para el caso, los tipos tenían una central mucho mejor, la VVER-440, muy parecida a la flota de 220 plantas de uranio enriquecido y agua liviana de 2da. generación de las firmas y gobiernos occidentales. Pero claro, era una inversión inicial mucho mayor.
Si nos vamos a costos, en 1986 un RBMK salía U$ 200 por kilovatio instalado, y nuestra humilde Atucha I, U$ 1.800, y el 50% del costo de la centralita criolla estaba invertido en sistemas activos y pasivos de seguridad.
Lo insólito del desastre de Chernobyl es que sucedió en el curso de un experimento de seguridad sencillamente estúpido, que no puede autorizarse jamás en un aparato poco controlable y de gran módulo. Tal como se ve en la serie, el RBMK, de 1000 MW de potencia y envenenado de Xenón-135, se cayó incontrolablemente desde un 50% de su potencia nominal a casi el 1% de la de diseño y luego “rebotó” en milésimas de segundo a más del 1000%. En esa salvaje “rampa de potencia” voló el núcleo del reactor, el edificio, la irrupción de aire dentro de los internos de la central generó un incendio del moderador (grafito) que desparramó humos llenos de productos de fisión por buena parte de Europa, etc. ¿Y por qué la rampa? Porque el grafito recalentado estimula la reactividad, a diferencia del agua pesada, que al recalentarse, la baja.
El RBMK era un doble acoplado sin frenos, y dentro del verticalismo sin escape del sistema político soviético, quedó un día en manos del equivalente de un conductor borracho. Alcanzó.
La pesada factura del agua pesada
La
mayor planta de agua pesada en el mundo es argentina, está en Arroyito,
Neuquén, el gobierno la cerró y quiere chatarrearla.
Cuando a los expertos nucleares ingleses se les pregunta cómo se apaga un incendio de grafito (tuvieron uno en un reactorcito plutonígeno militar en Windscale, Escocia, en 1957), contestan, parcos: “Cuando se termina de quemar el grafito”. Qué hacía el grafito en Windscale, o en Chernobyl: actuaba de moderador.
Desde Windscale que el ese material está desacreditado en reactores, y ni hablemos de usarlo en grandes centrales nucleoeléctricas, de mucha mayor potencia térmica. Pero los soviéticos lo usaron igual en 16 plantas RBMK gigantes: tenían el país más grande del mundo y uno de los más boreales, fríos y oscuros, necesitaban mucha electricidad y vapor pero también exportar casi todo su petróleo para conseguir dólares. Y el grafito sale barato.
Aquí, en todas nuestras centrales, para el mismo rol (moderar) preferimos el agua pesada: cuesta entre U$ 600.000 y U$ 800.000 la tonelada y constituye hasta el 20% de la inversión inicial de la central, pero a) da estabilidad en cualquier escenario de funcionamiento, b) literalmente la vacuna contra las “rampas de potencia”, y c) no se quema ni desata incendios incontrolables.
Colegas alemanes (y también compatriotas): aquí sobre la seguridad nuclear manda la ARN, no la Secretaría de Energía. La autoridad misma del Presidente de La Nación está limitada por lo que sepa de tecnología nuclear, o lo que sepan sus allegados. En el caso del ingeniero Mauricio Macri, estamos en el horno: el Secretario de Energía es un contador, y el Subsecretario de Energía nuclear, un sociólogo. Pero la ARN es experta y depende directamente de presidencia.
Y por su nivel técnico y seriedad, con la gente de licenciamiento aquí no se embroma. En 1987 un ignoto regulador del CALIN (Comité de Licenciamiento Nuclear), órgano entonces interno de la CNEA, le tiró el caballo encima a todo el tótem de funcionarios sobre su cabeza, incluídos el presidente de la entidad, ing. Alberto Costantini y el de la Nación, Raúl Alfonsín, y ganó. Sucedió cuando el radioquímico Dr. Rodolfo Touzet denunció la omisión de un par de paradas de mantenimiento de Atucha I por falta de repuestos. La Secretaría de Energía, dirigida (para variar) por petroleros que no quieren un mango puesto en nuclear, la necesitaba desesperadamente en línea, dados los apagones continuos por el estado lamentable de las centrales térmicas (sí, los petroleros pueden ser contradictorios).
Touzet, que estaba en el CALIN (Comisión de Licenciamiento) de la CNEA saltó por encima de todos los niveles de autoridad del estado, se quejó a los medios y ganó. La máquina volvió brevemente a su rutina de mantenimientos y buen servicio hasta que inesperadamente se rompió por un problema oculto de diseño, pero de eso ya hablamos. Touzet, que estuvo unos días en tapa de los diarios, siguió en funciones: jubilado hace mucho, ya cumple 58 años trabajando en seguridad radiológica, sin parar. No recibió medallas, no le gusta la notoriedad, no se le harán series en HBO, es un emérito “ad honorem” y también nuestro Valery Legasov, sin siquiera haber tenido que suicidarse.
Colegas alemanes, aquí todo es menos dramático. Telépolis se espanta porque la central de Embalse fue relicenciada para 30 años más de vida operativa, pero es la tercera CANDU en hacer lo mismo. Y serán muchas más. Hay 47 de estas centrales de diseño canadiense en 7 países del mundo operando desde los ’70. Jamás tuvieron un accidente mayor que dos derrames de agua pesada dentro del edificio de la central, en Canadá. Cuestan un 40% menos en inversión inicial. Mejor no me pregunten si prefiero CANDU o SIEMENS.
Telépolis se alarma porque Atucha II volvió al 40% de potencia, pero evidentemente no sabe de su breve historia operativa ni entiende siquiera su tecnología. La máquina no está moderada por grafito y en jerga de físicos, «tiene coeficiente de vacío negativo”. En castellano, si se sale de parámetros prefijados de temperatura, presión y radioquímica, se apaga en lugar de estallar. Cuantimás, hay una larga lista de chequeos que debe aprobar no sólo la ARN, el jefe de central sino la computadora –imposible de baipasear- para ponerla nuevamente en línea. Si este protocolo no se completara al 100%, la máquina seguiría “enclavada”, con las barras de control caladas a fondo. No arranca, punto.
Nadie está haciendo idioteces en Atucha II, y además no hay cómo. O es endiabladamente difícil.
Y si quieren darnos lecciones de moral antiatómica, ahora que se autofelicitan germánicamente por estar cerrando sus 18 excelentes centrales y emitir carbono como nadie en Europa, ¿por qué además viven comprándole electricidad nuclear a Francia?
Los precios mayoristas se aceleraron en mayo pasado un 4,9% en relación a abril, con una fuerte suba en el caso de los Productos Primarios, impulsados por el petróleo crudo y gas (+11%), indicó ayer martes el INDEC. En los primeros cinco meses de 2019, los precios mayoristas acumularon una suba del 18,8% y en 12 meses del 68,5%.
El alza de mayo fue la más alta del año, y con los aumentos de meses anteriores -el 3,4% de febrero, el 4,1% de marzo y el 4,6% de abril- mostró una tendencia ascendente después del 0,6% que había registrado en enero último.
Los precios mayoristas se van trasladando gradualmente a los minoristas, por lo que la diferencia de once puntos porcentuales con respecto al 57,3% que registra el Índice de Precios al Consumidor (IPC), seguiría impactando en el alza del costo de vida de los próximos meses. La demora en el traslado a los precios minoristas se atribuye a la caída del consumo.
Es clave tener en cuenta que este nivel inflacionario se da en un momento en que los índices financieros dan señales favorables: las acciones suben en la bolsa local, el riesgo país, todavía muy alto, disminuye, y, sobre todo, el precio del dólar se mantiene estable. Pero si los precios de todos los demás bienes aumentan, se forma un desequlibrio que provoca la próxima explosión.
Para acceder al informe del Índice de precios al consumidor (IPC) de mayo 2019, cliquear aquí.
El Banco Central de Brasil mantuvo ayer miércoles, en una decisión unánime y por décima vez consecutiva, la tasa básica de interés en el 6,5 %, su menor nivel histórico y un porcentaje que era previsto por el mercado financiero. Nuestro BCRA, ayer la bajó nuevamente a… 65,441%. Diez veces más.
Para su decisión, el Comité de Política Monetaria (Copom) del emisor brasileño señaló que tuvo en cuenta «los indicadores recientes de la actividad económica» del país, que apuntaron una «interrupción del proceso de recuperación de la economía» del gigante suramericano en los últimos trimestres.
El único comentario que podemos hacer aquí es que, como Jair Bolsonaro no es más keynesiano que Mauricio Macri, y su ministro de Economía, Paulo Guedes, es un neoliberal mucho más consistente que el equipo que hemos tenido aquí los últimos años, la explicación es que los empresarios brasileños son menos… tímidos que los nuestros.
El Servicio Nacional de Sanidad y Calidad Agroalimentaria (Senasa) anunció a través de su cuenta de Twitter que cuenta «con una nueva herramienta para proteger la salud pública. Ahora los productos veterinarios y fitosanitarios no se podrán comercializar en canales no autorizados, como MercadoLibre. Para eso firmamos un convenio de colaboración”.
El objetivo es evitar las ventas de medicamentos para animales y agroquímicos a través de plataformas de e-commerce.
“El hecho que los productos veterinarios o fitosanitarios se vendieran en este tipo de plataforma, representaba un incumplimiento de los requisitos de venta bajo receta o asesoramiento profesional”, explicó el director de Productos Veterinarios del Senasa, Federico Luna.
“El hecho de que los productos veterinarios o fitosanitarios se vendieran en este tipo de plataforma, representaba un incumplimiento de los requisitos de venta bajo receta o asesoramiento profesional”, explicó el director de Productos Veterinarios del #Senasa, Federico Luna. t.co/QdH7JbOZXA
Están pasando cosas en la comunidad científica argentina. Como que el Directorio del CONICET se pronuncie ante la situación salarial del personal del organismo cuyos salarios en muchos casos están por debajo de la línea de pobreza determinada por el INDEC.
Buenos Aires, 19 de junio de 2019
«El Directorio del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET) por unanimidad decidió ratificar su acompañamiento a los reclamos en materia de mejoras salariales y de condiciones de trabajo que se plantean en cada uno de los estamentos del organismo y de la comunidad científica y tecnológica. Numerosos salarios, incluso, están por debajo de la línea de pobreza determinada por el INDEC. Esta situación se refleja también en los estipendios asignados a la planta de becarias y becarios del organismo, en todas sus modalidades.
La recuperación de salarios y estipendios dignos y acordes a las tareas del personal del organismo, trabajadores o becarios, como así también el pase a planta permanente de trabajadores que llevan muchos años desempeñándose bajo la figura de contratos, es un problema que requiere una solución definitiva.
Deseamos también agregar que nos comprometemos a realizar gestiones tendientes a revertir esta situación, en particular para tener finalmente un escalafón propio y un convenio colectivo específico, como sucede, por ejemplo, con los trabajadores docentes y no docentes de las universidades nacionales y de otros organismos de ciencia y técnica.»
El desempleo afecta más a los jóvenes argentinos que a los adultos. Según datos del INDEC, casi dos de diez jóvenes están desempleados (19,3%), frente al 7,4% de la población en general(Hasta ahora. Hoy miércoles 19 sabremos el nuevo índice de desocupación. Y se advierte que a fin de año puede llegar al 12%, el peor registro desde 2005). Así, la tasa de desempleo en los jóvenes más que duplica a la de la población adulta en general y viene ampliándose desde 2004. La Argentina es el país con mayor desempleo juvenil de la región.
Por otra parte, el desempleo afecta más a los jóvenes que más necesitan trabajar: los provenientes de hogares de menores ingresos. Mientras el 26% de los jóvenes del quintil más bajo de ingreso está desempleado, solo el 9% de los jóvenes del quintil más alto está en esa situación. El género es otro predictor de vulnerabilidad laboral: el 25% de las mujeres jóvenes están desempleadas frente al 15,4% de los varones.
A esto se suma la incidencia de la informalidad. En la Argentina el 34% de los trabajadores está en situación de informalidad, pero si se consideran solamente los trabajadores jóvenes, ese porcentaje asciende al 60%, es decir que seis de cada diez jóvenes que trabajan lo hacen de forma precaria.
Entonces, más allá del desempleo, entre los jóvenes, otro problema tanto o más serio es la informalidad, que se traduce en que a menudo ganan el salario mínimo o menos, trabajan por jornadas extendidas, en situaciones insalubres y sin protección social (sin vacaciones pagas, licencias por estudio, por maternidad o paternidad en caso de tener un hijo, ni aportes jubilatorios). Esto tiene consecuencias graves para el futuro de los jóvenes. La informalidad del primer empleo es un predictor importante de trayectorias de exclusión: impacta negativamente sobre los ingresos futuros, sobre la probabilidad de tener un trabajo decente y de acceder a la jubilación.
Un gran desafío pendiente de diferentes administraciones y niveles de gobierno es superar la alta incidencia de la informalidad en el mercado de trabajo, que afecta especialmente a las mujeres y a las personas provenientes de hogares de menores ingresos.
Además, los jóvenes enfrentan una gran disparidad entre lo que la demanda de trabajo les exige y lo que les ofrece. Se les pide conocimientos técnicos y capacidades cognitivas, sociales y emocionales mucho mayores que los requeridos para el puesto, pero simultáneamente no se les ofrece protección social ni condiciones decentes.
La acumulación de capital humano empieza en la primera infancia. Hay que tomar medidas que permitan que las familias pasen tiempo con sus hijos y políticas de conciliación entre días laborales y familiares, políticas de trasferencia de ingreso que permitan el desarrollo integral y facilitar el acceso a servicios de calidad con el objetivo de garantizar sus derechos y de fortalecer sus capacidades para que a futuro puedan sostener a una población que ya no gozará del llamado bono demográfico, los beneficios de que la población en edad de trabajar sea mayor que la dependiente (chicos y adultos mayores) y en consecuencia, el potencial productivo de la economía sea superior.
Actualmente, la proporción de personas en edad de trabajar en la Argentina es mayor que la de personas dependientes. Sin embargo, en 25 años esa relación se va a invertir. Por lo tanto, hay que apostar servicios de educación (en todos los niveles y con un mayor grado de articulación con el entorno laboral) para facilitar el acceso de los jóvenes al mercado de trabajo. También es necesario fortalecer las políticas para la primera infancia para que los chicos de hoy puedan tomar la posta y trabajar productivamente para mantener la sociedad futura.
Por los reiterados incrementos de las cuotas -entre cuatro y cinco ajustes anuales-, la disminución del poder adquisitivo de la población y la menor cantidad de afiliaciones por la vía de obras sociales -debido a la caída del empleo- se sigue achicando el padrón de los afiliados a los servicios de medicina privada.
Datos de la Dirección General de Estadística y Censos de la Ciudad de Buenos Aires marcan que en 2018 sólo el 10% de la población porteña declaró contar con un plan de medicina prepaga por contratación voluntaria. Y otro 18% respondió que tiene la cobertura prepaga por la derivación de aportes a través de una Obra social. En total el 28%.
En 2016, los afiliados voluntarios sumaban el 12,7% y derivaban sus aportes otro 19,9%. En total el 32,6%. Es una caída de 4,6 puntos en solo 2 años y representan 140.000 beneficiarios menos sólo en CABA. Si esta caída se proyecta a todo el país según la distribución nacional del padrón el sistema tendría 1,2 millón de beneficiarios menos. En lo que va de este estas desafiliaciones se acentuaron por el mayor deterioro de los ingresos de la población.
El grueso de la población porteña —el 46,1 %— tiene cobertura a través de las obras sociales que aumentaron el padrón por la vuelta de los que derivaban sus aportes a las prepagas. Se atienden exclusivamente en hospitales públicos el 18,6% y el resto en mutuales o servicios de emergencias.
En promedio, el costo de los planes de las prepagas es de entre $ 6.000 y $ 7.500 mensuales para una persona de edad mediana, y es mucho más alto para los adultos mayores. Un matrimonio joven con dos hijos menores, por un plan sin reintegros, paga alrededor de $ 13.000 por mes. Y los planes familiares mayores superan ese importe.
Desde julio, el costo de esos planes vuelve a subir un 17,5% en 3 tramos mensuales. El primer aumento, del 5,5%, regirá a partir del 1 de julio. Otro 6% se sumará desde el 1 de agosto y el tercero, también del 6%, regirá a partir del 1 de septiembre.
La semana pasada, se dio el primer paso para que las prepagas puedan dar coberturas parciales de cobertura ambulatoria o de internación. Esto significa ofrecer planes más baratos, que no garantizan el 100% de la atención médica sino coberturas limitadas. Quienes acepten esos planes deberán cubran el resto a través del hospital público.
Los planes parciales de cobertura ambulatoria incluyen: Consultas Médicas, Medicamentos, Estudios y Prácticas de Baja Complejidad y Estudios y Prácticas de Alta Complejidad. En tanto, los parciales de internación incluyen Emergencias Médicas en domicilio y Guardia, Internación Clínica y Quirúrgica y Medicamentos en Internación.
Esta situación, que no parece ser de coyuntura por los costos cada vez más altos de la salud, prevsenta un desafío y una oportunidad a las obras sociales ¿Pero están dispuestas a asumirlo? Varias de ellas, las más prósperas, prefieren conservar, no aumentar, su limitado universo de afiliados.
La mayor epidemia animal de la historia se extiende por Asia sin que el sacrificio de piaras y otras medidas puedan contenerla. El año del cerdo en China ha traído un apocalipsis porcino al que no se intuye final cercano ni se descarta un contagio global que dispare los precios.
Al virus lo llaman el ébola de los cerdos y la buena noticia es que los humanos somos inmunes. Lo demás es inquietante. Su mortalidad roza el 100% en los cerdos, que sucumben por las hemorragias internas.
La ausencia de vacunas y de tratamiento empuja a las matanzas indiscriminadas. Pocos virus muestran una transmisión más ágil y una resistencia tan briosa. Sobrevive más de cien días en la carne congelada y aguanta durante semanas en todo tipo de objetos, de ropa a vehículos, por lo que cubre largas distancias en pocas horas. Y epidemias con epicentro en Asia como el SARS ya mostraron que los virus no entienden de fronteras.
El primer caso de gripe porcina africana (ASF, por sus siglas en inglés) fue detectado en agosto de 2018 en una granja de la provincia norteña de Liaoning. Las autoridades chinas mataron un millar de cerdos y declararon resuelta la crisis. Dos semanas después se informaba del segundo caso en la provincia central de Henan, más de 2000 kilómetros al oeste.
Las consecuencias sociales y económicas en China son dramáticas. Su industria porcina mueve 128.000 millones de dólares y, con 700 millones de cerdos, concentra la mitad de la producción global. Beijing ha confirmado el sacrificio de un millón por la ASF, pero los expertos calculan que a final de año podrían alcanzar los 200 millones. Ese 30% de pérdidas equivale a toda la producción europea.
Desde entonces se ha extendido por todo el país y cruzado a Vietnam, Camboya, Corea del Norte, Mongolia y Hong Kong. Se teme que Laos, Tailandia, Filipinas y Myanmar sean los siguientes. Todos los gobiernos están en alerta.
La ASF pasó en enero desde China al norte de Vietnam y en seis meses ya se ha extendido por 48 de sus 63 provincias. Los esfuerzos de Hanoi no han sido escasos ni tibios. Ha matado a dos millones de cerdos, el 6% de su producción anual, y movilizado a policía y ejército. El cerdo supone el 75% de la carne consumida por los vietnamitas y emplea a buena parte del sector ganadero. «Nunca Vietnam ni el mundo se han enfrentado a una epidemia tan peligrosa, compleja y cara», afirma su Ministerio de Agricultura.
Corea del Sur, Japón y Taiwán escanean a los viajeros en sus aeropuertos en busca de salchichas y otros productos porcinos y han elevado las multas por contrabandos. Tokio, además, ha desplegado perros para olfatear los equipajes. Pero el control en países menos desarrollados es más difícil. La falta de compensaciones a ganaderos por los sacrificios incentiva el silencio ante el contagio y canaliza a los animales enfermos o muertos hacia el mercado negro.
China, Camboya, Vietnam y Corea del Norte han sido incapaces de controlar la epidemia y es muy probable que se extienda al resto de Asia y más allá, juzga Dirk Pfeiffer, experto en epidemias animales de la City University de Hong Kong. A corto y medio plazo, continúa, lo más realista no es erradicarla sino «aprender a convivir con el virus endémico en varios países de la región».
La dispersión de las granjas y las insuficientes condiciones sanitarias aceleran la propagación y forman en Asia la tormenta perfecta. Mientras la producción en Europa se confía a haciendas de gran tamaño concentradas en regiones razonablemente alejadas entre sí, la cría de cerdos en China está atomizada en pequeñas granjas desperdigadas por todo el territorio.
«El problema es que carecemos de precedentes de una situación así, porque no hay ninguna otra parte del mundo que tenga a tantos cerdos en unas bajas condiciones de bioseguridad y en un espacio geográfico tan grande (…) ¿Cómo controlas el contagio sin siquiera una vacuna?», señala Pfeiffer.
Los efectos de la crisis se extenderán al bolsillo de las familias. Los precios globales del cerdo han aumentado un 40%. Según Even Pay, analista de agricultura de la consultora China Policy, el impacto económico se contagiará al pollo, los huevos y cualquier alternativa proteínica que elijan los consumidores. Pero la crisis ayudará a los países que suministran cerdo a China porque aumentará la demanda y el precio.
«Eso incluye a España y Alemania, dos de los principales exportadores. También a Canadá, Australia y Brasil, que le venden ternera y pollo. A largo plazo, el incremento de la demanda de carne puede desembocar en un mercado más diverso, con más competidores», es el pronóstico de China Policy.
En Argentina, el sector privado estima que habrá un efecto positivo por el lado de las carnes, pero sería negativo para la exportación de soja.
Como a China le podría llevar hasta 10 años recuperar el stock -las previsiones más pesimistas señalan que se terminarían sacrificando entre 150 y 200 millones de cabezas-, ya hay una mayor presión de importación. Según un reciente informe de la Bolsa de Cereales de Buenos Aires y la Fundación INAI, que hizo un estudio de impacto con una pérdida de 10, 20 y 30% de la producción en China, ese país podría importar entre 745.000 y 4,7 millones de toneladas de carne de cerdo. Actualmente viene importando un volumen de 1,6 millones de toneladas, cifra equivalente al 20% del mercado mundial.
Argentina, que logró recientemente la autorización para vender carne porcina a ese mercado y ya tiene tres frigoríficos habilitados, podría vender hasta 18.000 toneladas allí el próximo año. Nuestro país viene creciendo en exportaciones de carne de cerdo y esto representa otra oportunidad.
Según datos de la Secretaría de Agroindustria, en el primer cuatrimestre de 2019 las exportaciones de carne de cerdo a los mercados actuales crecieron 53% (7586 toneladas) versus igual período del año pasado. Por la mejora del poder adquisitivo de la clase media china, conformada por más de 300 millones de personas, ese país está consumiendo también más carne bovina. De hecho, como efecto derivado de la peste porcina africana también se vislumbran más exportaciones de carne vacuna argentina a China. El país exportó a ese mercado el año pasado 206.000 toneladas peso producto, equivalentes a unas 309.000 toneladas res con hueso. Para la carne vacuna, según el trabajo de la Bolsa de Cereales porteña y la Fundación INAI, por la peste porcina africana en China la Argentina podría ampliar sus ventas a ese mercado entre 28.000 y 78.000 toneladas.
China venía llevándose carne de vaca de menor valor, pero ahora también está comprando cortes de novillo de mayor calidad y precio. Ese mercado, el principal cliente de la Argentina, sigue aumentando sus compras. En los primeros cuatro meses del año adquirió acá 92.727 toneladas peso producto de carne vacuna, una suba del 90,7% versus igual período de 2018. En abril último tres de cada cuatro kilos exportados fueron a China.
Granos: menos exportaciones
En el caso de la soja, China, el mayor importador del mundo, con 84 millones de toneladas, podría reducir sus compras en 9 millones de toneladas. Para la Argentina representa un riesgo para tres millones de toneladas de la exportación. Además de la guerra comercial entre Estados Unidos y China, la enfermedad en el país asiático se convirtió en un factor bajista para los precios de los granos.
La Universidad de Buenos Aires (UBA) fue nombrada ayer martes 18 la mejor universidad de Latinoamérica -por 5° año consecutivo- en la 16° edición del QS World University Rankings, el ranking de universidades más consultado del mundo.
Según la consultora internacional en educación superior, QS Quacquarelli Symonds, la UBA está en la cima de un ranking de entre las 88 universidades latinoamericanas y se posiciona número 74 dentro del top 100 mundial. El Instituto Tecnológico de Massachusetts (MIT por sus siglas en inglés) es considerada la mejor, batiendo el récord por 8° año consecutivo.
Este año, América Latina está menos representada en el ranking que en la edición anterior, cuando aparecían un total de 93 instituciones. De ella, 30 mejoraron su posiciones, mientras que 16 descendieron puestos.
El país latinoamericano con más representación es Brasil, con un total de 19 universidades en el ranking; tanto la Argentina como México tienen 13 instituciones en el listado. El desarrollo de las casas de estudio argentinas se mantiene estable, aunque bajan en las métricas de empleabilidad e investigación, según el informe.
Berlín ha sido esta semana el primer Estado federado de Alemania en aprobar por ley la congelación del precio de los alquileres durante cinco años, una medida que pretende poner freno a la especulación en el mercado de la vivienda.
Esta decisión se enmarca en la tensa situación que viven la capital y otras ciudades alemanas por la falta de viviendas y el aumento desorbitado de los precios de alquiler. La medida adoptada por el Gobierno regional —una alianza del Partido Socialdemócrata (SPD), Los Verdes y los poscomunistas de Die Linke (La Izquierda)— afecta a 1,6 millones de viviendas y cuenta con el rechazo total de la oposición (democristianos, liberales y la ultraderechista Alternativa para Alemania), más cercanos a las tesis del sector inmobiliario.
La ministra berlinesa de Desarrollo Urbano, Katrin Lompscher, enfatizó que la ley recogerá una regulación concreta para los propietarios en dificultades económicas. El Gobierno berlinés quiere poner fin al rápido aumento de los alquileres y, al mismo tiempo, ganar tiempo para la construcción de nuevas viviendas. La ley también contempla introducir un límite máximo de alquiler. El importe aún no está claro, pero los alquileres que superen este límite tendrán que ser reducidos en el momento de la solicitud. Está previsto que la ley entre en vigor en enero de 2020. Pero para evitar nuevos aumentos de precios, sus efectos serán retroactivos a partir de la resolución del Parlamento regional aprobada ayer martes 18. En caso de infracción, se podrán imponer multas de hasta 500.000 euros.
Según la Oficina de Estadísticas de Berlín, más de 3,7 millones de personas viven en la capital, que dispone de una oferta de 1.906.400 viviendas, de las cuales más de 1,6 millones son alquiladas. De estas, 105.500 son viviendas sociales con un alquiler neto de menos de 6,5 euros por metro cuadrado. Uno de los dramas del mercado inmobiliario berlinés es la crónica falta de viviendas nuevas. En 2018 se construyeron 16.706 nuevos apartamentos, pero para acoger a las 40.000 personas que cada año llegan a la ciudad harían falta más de 20.000.
El plan ya ha dado lugar a un debate en toda Alemania. El líder provisional del SPD, Thorsten Schäfer-Gümbel, anunció que el Gobierno de gran coalición —formado por la CDU de Angela Merkel, sus aliados bávaros de la CSU y el SPD— estaría a favor de un límite al precio del alquiler en toda Alemania. Pero el ministro del Interior, Horst Seehofer (CSU), criticó la decisión. La asociación de propietarios Haus & Grund incluso pidió a los locadores que aumentaran los alquileres antes de la aprobación de la medida. La Asociación de Arrendatarios de Berlín ha registrado un fuerte aumento de los aumentos de alquiler en el capital en los últimos días. El Comité Central de Bienes Raíces criticó duramente la decisión. “La capital se está amurallando. El panorama político está inquietando a los inversores, de los que Berlín depende”, explicó su presidente, Andreas Mattner. La Asociación de Empresas de Vivienda de Berlín y Brandeburgo se sumó a las críticas y describió el límite de alquiler como un “límite de inversión”.
Para acabar con la especulación salvaje se lanzó en marzo una consulta popular que pedía la expropiación a los grandes consorcios inmobiliarios. La iniciativa aún esta en marcha y para prosperar deberá recoger 170.000 firmas en seis meses. Las expropiaciones están permitidas por la Constitución de Alemania “solo por motivos del bien común”. “Podrá ser efectuada solo por ley o en virtud de una ley que establezca el modo y el monto de la indemnización”.
Decimos esto en el título porque, como los catástrofes «venden», el cambio climático -más precisamente, el calentamiento global- queda en la mente del público como una amenaza vaga en el futuro, como antes lo fue la guerra nuclear o la superpoblación.
Pero el aumento de las temperaturas medias es un proceso en marcha, especialmente notorio en el Ártico pero que tiene consecuencias en el clima de todo el planeta. Los modelos matemáticos son muy imprecisos, hasta ahora, pero no caben dudas que existe. Tarde o temprano, las Grandes Potencias decidirán que los organismos internacionales impongan reglas, y las hagan cumplir. Argentina no puede acelerar o demorar ese desarrollo en forma significativa. Pero debe, y le conviene, participar en las discusiones, y poner a sus científicos a analizar en serio como está siendo afectada ahora y las posibles medidas que se exijan.
En AgendAR, les acercamos este tweet que se viralizó en la mayor parte del planeta: es la foto que sacó un científico, Steffen Olsen, del Centro para el Océano y el Hielo del Instituto Meteorológico de Dinamarca este 13 de junio. Había viajado a Groenlandia para recuperar herramientas de monitoreo oceanográfico y meteorológico en el hielo marino, pero… el hielo ya no estaba. No en la superficie, al menos.
Ahí vemos a siete perros caminando sobre el agua, literalmente, mientras tiran de un trineo en el fiordo Inglefield Bredning de Groenlandia.
@SteffenMalskaer got the difficult task of retrieving our oceanographic moorings and weather station on sea ice in North West Greenland this year. Rapid melt and sea ice with low permeability and few cracks leaves the melt water on top. pic.twitter.com/ytlBDTrVeD
La mora en los préstamos del sector privado subió 147% entre diciembre de 2015 y abril último: pasó del 1,7% de la cartera total al 4,2%. Más preocupante aún, en el último año y medio la morosidad en las empresas se incrementó 214%.
El dato difundido por el Banco Central superó la marca registrada en la crisis del 2009, tras el impacto del quiebre financiero internacional de las hipotecas «sub-prime» en Estados Unidos. La recesión sumada a la dureza en la política monetaria con elevadas tasa de interés dificulta el cumplimiento de los pagos por parte de los deudores.
Según el «Informe sobre Bancos» que distribuye el BCRA, la morosidad entre los créditos para empresas en abril de este año fue del 4%, esto representa una suba de 2,7 puntos respecto de diciembre de 2015 cuando la mora llegaba a solo el 1,3% de la cartera.
Los números ya preocupan en el sistema financiero: en un un año y medio la morosidad de las empresas aumentó un 214%.
Los atrasos en los pagos de las familias se ubicaron en un 4,6% en el mes de abril. Subieron levemente 0,1 puntos respecto a marzo pasado pero 1,5 puntos contra el mismo mes de 2018.
En tanto la irregularidad en el crédito al consumo como en las tarjetas de crédito familiares pasó de 2,1% en diciembre de 2015 a 5,2% en abril de 2019.
El nivel de endeudamiento de las familias argentinas es bajo si lo comparamos con otros países de la región. El crédito total es equivalente a 8% del PIB contra más de 20% de PBI en países vecinos.
En el informe de estabilidad financiera el BCRA muestra una “radiografia” del endeudamiento de las familias según estratos de ingresos. Según el organismo: “el incremento en el endeudamiento entre mediados de 2016 y fines de 2018 fue proporcionalmente más marcado en el decil de menores ingresos (subió 12,8 puntos básicos) y en uno de los deciles de mayores recursos (9° decil)”, y agrega que fue muy marcado el rol de los créditos hipotecarios ajustados por inflación (UVA).
Cabe señalar que la morosidad en los créditos hipotecarios UVA es menor a la de los créditos hipotecario tradicionales (0,3% vs 0,6%). En abril de 2018, la mora era de solo 0,06% del total de la cartera y en el último registro de abril pasado los atrasos en el pago de los créditos hipotecarios aumentaron hasta 0,3% del total de la cartera. Es bajo el ratio si lo analizamos en la serie histórica de Argentina. Sin embargo, es muy importante el salto que tuvieron los créditos denominados en UVAs que alcanzo el 390% en los últimos 12 meses.
Desde AgendAR sólo podemos agregar que la morosidad en la Argentina está lejos todavía del nivel de crisis. Pero… la estabilidad del dólar, que tanto entusiasma a algunos sectores, significa que las tasas actuales representan muy altos intereses en dólares. Mucho más altos que los beneficios que puede redituar cualquier actividad legal y muchas de las ilegales. Son impagables.
En el programa financiero oficial para el año próximo se contabilizaron recursos por u$s 5.900 millones del préstamo del FMI, pero se recibirán u$s 3.900 millones, informa El Cronista. También hay dudas con el superávit fiscal previsto.
Para 2020, la secretaría de Finanzas a cargo de Santiago Bausilli, previó que necesitará u$s 16.000 millones, de los cuales una parte, estima, podrá renovar con el mercado. La deuda nueva a emitir sería entonces de u$s 5.200 millones. Pero este número ya se cuestiona. Por un lado, en la contabilización de los recursos, desde el Gobierno sumaron u$s 2.000 millones de más en los desembolsos que enviará el FMI. Los 4 envíos previstos a lo largo de 2020, equivalen a u$s 3.900 millones. Y en el programa financiero presentado a inversores figuran u$s 5900 millones. El total a recibir entre 2020 y 2021.
En el entorno de Nicolás Dujovne buscaron restarle importancia a este error. «Fue por simplicación, todo lo que resta recibir del Fondo».
Los vencimientos de deuda del año próximo, y la necesidad de conseguir fondos para afrontarlos, es uno de los temas principales que tendrá que abordar el Gobierno que esté desde el 10 de diciembre, gane quien gane. En un contexto difícil para conseguir financiamiento en el mercado internacional, con el riesgo país, que si bien bajó un poco, aún está en torno a los 850 puntos básicos, cada uno de los dólares que faltan, cuenta.
«El 2020 será complicado. Parte de los u$s 15.200 millones de intereses a pagar está previsto que sean financiados con superávit fiscal. Que según Hacienda sería de u$s 5.200 millones, pero es difícil que se pueda llegar a ese superávit primario», afirmó Guido Lorenzo, director de la consultora LCG, a María Iglesia de El Cronista.
Además de esos intereses vencen alrededor de u$s 13.000 millones de deuda con el mercado. «Una vez descontado el financiamiento del FMI estimamos que habrá que colocar cerca de u$s 10.000 millones adicionales a la renovación de los u$s 13.000 y, sobre eso, renovar el stock de letras de corto plazo». «Si uno mira el apetito del mercado a hoy, no parece una tarea sencilla. Creemos que cualquier candidato que gane y muestre simpatía con el mercado será bien recibido, pero la incertidumbre y la falta de políticas concretas espantarán rápidamente a los inversores».
La comisaria europea de Comercio, Cecilia Malmström, anunció ayer que hay una «buena probabilidad» de que la Unión Europea y el Mercosur puedan concluir su acuerdo comercial antes de fin de año, después de casi dos décadas de negociaciones que se han acelerado en los últimos meses. La funcionaria sueca subrayó el progreso alcanzado y se mostró optimista ante la posibilidad de cerrar el tratado en lo que queda de mandato de la actual Comisión Europea; esto es, hasta el 1 de noviembre.
La comisaria apuntó a que en las últimas reuniones se han resuelto «algunos asuntos difíciles que llevaban ahí mucho tiempo». Pero no especificó qué capítulos han quedado cerrados y reconoció que «como siempre al final de una negociación comercial», todavía quedan temas «complicados» en los que no hay un consenso. Estos asuntos «suelen estar relacionados con la agricultura, pero no exclusivamente», avanzó Malmström, quien reiteró que es importante concluir este acuerdo «pero no a cualquier precio».
La política sueca se mostró más optimista que el presidente de la Comisión Europea, Jean-Claude Juncker, quien la semana pasada calificó de «difícil» cerrar este acuerdo en los cuatro meses y medio que le quedan al frente del Ejecutivo comunitario.
Todavía no hay una fecha definida para la próxima ronda de negociaciones entre ambos bloques, en la que se seguirá el trabajo técnico para resolver diferencias en asuntos clave. Luego vendrá el nivel ministerial, en que representantes políticos de ambas partes puedan cerrar los últimos flecos del acuerdo tras casi veinte años de negociaciones.
En nuestro país algunos sectores vinculados a la actividad rural se han manifestado a favor de apurar un acuerdo entre el Mercosur y la Unión Europea. Por ejemplo, varios de los panelistas en la nueva edición de «Argentina Visión 2020/40» un espacio de reflexión organizado por ADBlick Agro, el Centro de Agro-negocios de la Universidad Austral y Bioceres.
Por otro lado, los sectores industriales «sensibles» rechazan en bloque un acuerdo de libre comercio entre el Mercosur y la Unión Europea. Según la Confederación General Empresaria de la Argentina (CGERA), en segmentos como marroquinería, óptica, calzado, textiles, metalmecánica y tintas gráficas, entre otros, la apertura a las importaciones europeas sería fatal.
Si todo sale bien a principios del 2020 -en un corral científico ubicado en San Antonio de Areco- nacerá la primera tanda de terneros cuyos embriones fueron editados genéticamente en un laboratorio y clonados antes de ser transferidos al útero de vacas sustitutas. El experimento, que está realizando un equipo de investigadores argentinos, tiene un objetivo doble: científico y productivo: obtener una primera camada de animales con su genoma «mejorado» de manera que puedan ganar entre aproximadamente un 20 % más de carne que el promedio de su raza.
El procedimiento incluye un segundo paso complejo, pero que ayuda a tener muchas «copias» del ADN de los animales mejorados: la clonación de las células «optimizadas» que atravesaron previamente con éxito el “programa de mejoramiento genético de «precisión”. Si todo funciona como está previsto en siete meses nacerán terneros capaces de producir más carne en menos meses, sin aumentar su consumo de alimento.
Desde hace tiempo laboratorios -y empresas- argentinos clonan rutinariamente animales, en particular caballos. Pero este es un paso adelante en esta frontera biológica.
«Empezamos el proyecto en 2018», contó el biotecnólogo Gabriel Vichera; director científico y cofundador de la firma Kheiron Biotech. Y agregó: «el objetivo es, mediante edición génica, obtener nuevos ejemplares de raza Brangus, pero con la característica de ofrecer más carne y llegar a su peso ideal de faena en menor tiempo. Todo eso consumiendo la misma cantidad de alimento que sus congéneres con el genoma no alterado.
Una vez logrado ese ADN «mejorado», algo que lograron usando herramientas de edición genómica llamado CRISPR Cas9; los científicos clonaron esas células fecundadas e implantaron los embriones resultantes en el útero de un rebaño de vacas. Así ahora, en la cabaña del laboratorio, hay una cincuentena de vacas preñadas y los veterinarios están a la espera de que nazcan los primeros terneros, que tienen fecha de parto prevista para principios del año próximo. «Durante 2020 esperamos criar un rebaño de alrededor de 70 animales clonados. Todos con características genéticas idénticas y que -esperamos- mostrarán mayor «productividad» en la producción de carne que un ejemplar común de la misma raza».
Lo que los científicos destacan es que no se trata de un animal transgénico. «Todo el procedimiento fue cuidadosamente pensado para evitar la introducción de cualquier material genético extraño. Recurrimos a la edición de precisión pero trabajando exclusivamente sobre el ADN original de la raza evitando de esa manera cualquier controversia bioética futura».
Equipo de Investigación laboratorio KHEIRON Biotech: Dr.Gabriel Vichera; Dr.Juan Bastón; Lic.Tomas Fanti; Lic.Mariana Suvá; Mv.Victoria Arnold.
Según Vichera, «hoy con las «tijeras genéticas CRISPR, podemos editar el genoma como si fuera un libro: desde corregir errores de tipeo a agregar, o suprimir, frases o secuencias. Así, en nuestro laboratorio, logramos disminuir la expresión del gen de la miostatina, cuya función es crear las proteínas responsables de ralentizar y frenar el crecimiento del tejido muscular del animal. El resultado es que esperamos tener un rebaño de vacas con ese gen «silenciado» y que por eso alcanzarán mayor masa muscular, asegurando una carne más magra y, en promedio, un balance de mayor producción de proteínas por animal».
Otro punto destacado del experimento es que, en lugar de llegar a obtener estos ejemplares mejorados, por medio de cruzas convencionales -algo que llevaría décadas de cría natural-, la edición genómica en el laboratorio se logró en una sola generación. En otras palabras, «en menor tiempo logramos lo mismo que se hizo ancestralmente con las prácticas de los ganaderos, que suman la selección natural, el cruzamiento orientado de ejemplares que muestren características útiles y la variabilidad genética que surge del azar».
Según Vichera, «nuestros resultados nos permitirán tener un avance importante en términos reproductivos y podrían tener un fuerte impacto económico, ya que la gran ventaja de usar herramientas de edición genética y clonar sus resultados nos permite obtener ejemplares de ganado con nuevas características biológicas, en menor tiempo y de forma no azarosa”.
Por otra parte el know how biotecnológico que están poniendo a punto es lo suficientemente flexible como para regular, en cierta medida, el factor limitante del crecimiento de manera de poder crear animales con diferentes grados de crecimiento muscular, algo que puede ayudar a adaptar esta misma técnica para el mejoramiento de otras razas bovinas.
Otro camino biotecnológico La idea de hacer mejoramiento del genoma mediante el uso de técnicas de edición de precisión como es CRISPR-Cas9 es muy prometedora. Y otros grupos de destacados investigadores argentinos trabajan en líneas similares. Es el caso de Adrián Mutto, investigador del Conicet y especialista en reproducción y mejoramiento genético. Mutto fue profesor de Vichera en la Universidad de San Martin y hoy dirige el Laboratorio de Biotecnologías Aplicadas a la Reproducción y Mejoramiento Genético Animal y trabaja en desarrollos conjunto con equipos de expertos del INTA.
La teoría del experimento que está realizado el grupo de Vichera es interesante, pero habrá que ver como son los resultados finales». «Además, su proceso incluye clonación y eso es algo que, todavía, causa cierto rechazo en los posibles consumidores».
Por su parte, en equipo con Nicolás Mucci y Germán Kaiser, del INTA, Mutto también recurre a CRISPR-Cas9 para «editar» el genoma de vacas lecheras, pero sin clonar los resultados proceso que, en ocasiones, puede poner en riesgo la salud del animal.
«En nuestro laboratorio modificamos el ADN de embriones producidos in vitro y «knockeamos» el gen responsable de la producción de la proteína beta-lactoglobulina, el principal alérgeno de la leche bovina», resumió. Y detalló que «ahora, en un campo del INTA, tenemos cuatro terneras ya nacidas y una decena de animales preñados que tendrán cría en pocos meses. Esperaremos a que crezcan para hacerlas producir leche y comprobar que todas expresen la mutación y que su leche sea realmente hipoalergénica. Con ese resultado, posiblemente el INTA intente armar un tambo experimental para estudiar si es posible hacer una transferencia al sector privado de manera de que sea una realidad la posibilidad de producir productos lácteos hipoalergénicos”.
Referentes de las asociaciones de consumidores alertan sobre los riesgos que supondrá haber autorizado a las empresas de medicina prepaga a limitar los servicios que prestan a sus clientes. Según la resolución publicada esta semana por la Superintendencia de Servicios de Salud, las empresas de medicina prepaga podrán ofrecer planes parciales de cobertura ambulatoria o de internación, lo que equivale a que dejarán de garantizar la cobertura del ciento por ciento de las prestaciones médicas como establece la ley del Programa Médico Obligatorio (PMO), advierten la entidades de consumidores consultadas.
Es un viejo anhelo de estas compañías y una discusión que viene desde 2011, cuando se amplió el alcance del PMO y las prepagas buscaban evitar dar cobertura a lo que se denominan prestaciones de alto valor y baja incidencia (enfermedades costosas de escasa probabilidad de ocurrencia). “Es como contratar un seguro para el auto pero que la compañía te diga que, si el choque es muy grave, no se van a hacer cargo de los daños”, ejemplificó el director de la Unión de Usuarios y Consumidores, Claudio Boada,
Los constantes incrementos ante salarios y jubilaciones que pierden mes a mes contra la inflación llevaron a que la cuota de la medicina prepaga represente actualmente el 28,2% de un salario promedio del sector formal o un 77% de la jubilación media, según estimaciones de la Universidad de Avellaneda. El resultado es que crece el número de clientes que se dan de baja a estos planes. Las prepagas buscan con la limitación de sus servicios contener parte de la fuga de clientes.
“Es una nueva restricción a los derechos a los usuarios que sólo favorece a las empresas de medicina prepaga. Ya los clientes están bastante limitados frente a una Superintendencia que no da respuesta a los abusos por parte de la empresas”, señaló Pedro Busetti, presidente de Defensa de Usuarios y Consumidores (Deuco). El directivo de la entidad de consumidores afirmó que “desde 2015 a la fecha desmejoró mucho la atención de las prepagas, según los reclamos que nos llegan, y la respuesta de la Superintentencia de Salud generalmente no es buena y llega tarde”.
Todavía no están
determinadas las causas del inédito apagón que se registró ayer en
todo el territorio nacional. El secretario de Energía, Gustavo
Lopetegui, aseguró en conferencia de prensa que habrá que esperar
entre 10 o 15 días para tener mayores precisiones.
Para los expertos en energía, la empresa que ocupa el centro de escena es Transener, la compañía privada que opera la red de transmisión en alta tensión. Transener es propiedad de la empresa Pampa Energía y del Estado nacional. Consultores y fuentes gubernamentales y del mercado sugerían ayer que en el caso de que se compruebe que Transener cometió algún tipo de negligencia o mala praxis en la programación de los sistemas de protección de la red, eso podría desembocar en una rescisión de su contrato de operación.
Allegados al ente regulador (ENRE) indicaron que “no tenemos ningún elemento que sugiera eso por ahora”. “En todo caso, el ente no otorga ni rescinde contratos. Eso es responsabilidad del Poder Concedente”. Es decir, el gobierno nacional.
Pese a que la falla inicial que originó el blackout se registró en la red de Transener, las empresas distribuidoras y de generación también deberán rendir cuentas por su accionar en el mega apagón de ayer.
La Compañía Administradora del Mercado Eléctrico Mayorista (Cammesa) reconoció ayer en un informe preliminar que el problema inicial se produjo en el Litoral. El 18 de abril la línea de transmisión Colonia Elía-Nueva Campana, que lleva energía desde las centrales de Yacyretá y Salto Grande hacia Buenos Aires, salió de servicio por reubicación de una torre en el cruce del río Paraná Guazú. Por lo tanto, se venía operando con la línea paralela de 500 kilovoltios Colonia Elía-Belgrano. En esta última se produjo un cortocircuito a las 7.06 del domingo. Simultáneamente, y por causas aún no precisadas, se desenganchó la línea de 500 kilovoltios Mercedes-Colonia Elía.
El sistema está preparado para soportar el desenganche de dos líneas de 500 kilovoltios, pero en este caso terminaron siendo tres las que salieron de servicio al mismo tiempo. Este debilitamiento de la red posiblemente fue lo que desestabilizó las centrales de Yacyretá y Salto Grande y se perdieron sus aportes (unos 3700 MW).
Una vez ocurrido el incidente, el sistema debería haber enviado de manera automática una señal para que los generadores respondan de la manera adecuada para recomponer el equilibrio sumando de otras fuentes los 3700 MW que se perdieron por el desequilibrio inicial. Son controles digitales activados por los sistemas de Desconexión Automática de Generación (DAG) que están programados por Transener.
Una parte de la potencia que se perdió ayer por la caída del complejo Yacyretá-Salto Grande (3700 MW) debería haber sido aportado por el «sistema de reservas flotantes», que debe funcionar con cerca de 1200 megas, y el resto de otros generadores a los cuáles les debería haber llegado una señal, aunque aún no está claro si el equipo de protección que controla Transener estaba programado para prever un hecho con las características del que ocurrió.
Las distribuidoras tienen que tener instalados relés de sub-frecuencia. Frente a una caída abrupta de generación, como la registrada ayer, los relés están preparados para mantener el sistema funcionando aún con una restricción de hasta un 42% de la generación del sistema.
¿Qué significa eso? Por ejemplo, si el sistema está operando con una generación de 10.000 MW de generación, los relés instalados por las distribuidoras tienen que estar en condiciones de cortar de forma automática hasta 4200 MW de demanda para garantizar la estabilidad del sistema.
¿Eso sucedió ayer? ¿Los relés de las distribuidoras actuaron de forma correcta? Varios funcionarios presentes en el centro de despacho (SACME) se hacían esa pregunta. Si las distribuidoras no bajan la demanda frente a un descenso de la generación, la frecuencia sincrónica del sistema de transmisión se cae porque la red de transporte no puede funcionar a menos de 48 ciclos o 48 hertz.
Los especialistas no pudieron asegurar que los relés hayan funcionado porque nunca se habían probado frente a un hecho de semejante magnitud.
En caso que la señal de Transener haya sido enviada correctamente, cuando la caída de generación provoca una oscilación de frecuencia sincrónica, las generadoras tiene que poder estar en condiciones de operar en un escenario complejo de entre 48 y 49 ciclos de frecuencia para garantizar la estabilidad del sistema.
Lo que tendrá que
precisar el regulador es si las generadoras que estaban inyectando
energía respondieron de acuerdo con esa previsión frente a las
primeras oscilaciones o se desconectaron de la red antes de lo
previsto agudizando el problema.
La última medición
informó que al momento del blackout la frecuencia del sistema
era de 48.3 hertz, al límite de lo técnicamente operable. En
términos simplificados, lo que deberá precisar el informe del
regulador es si las centrales de generación que estaban activas en
ese momento pudieron soportar las oscilaciones de frecuencia o se
desconectaron antes de lo previsto por fallas en los sistemas de
control.
Una vez que se procese la información disponible para identificar la cadena de responsabilidades, se procederá a sancionar a los responsables de la falla. La máxima sanción que se aplicó con el marco regulatorio vigente fue la multa de 90 millones de dólares que recibió Edesur en la década del 90 luego de la caída de su central de Azopardo.
Algo importante a tener en cuenta es que la desconexión automática ante inestabilidades de frecuencia en red lo que buscan es proteger las máquinas generadoras, no agravar por cascada a tamaño nacional un apagón inicial de tamaño a lo sumo provincial.
En AgendAR observamos que las dos centrales en desconectarse primero, Yacyretá y Salto Grande, son las dos mayores unidades de potencia de base de la red nacional. Era difícil que no arrastraran al resto del sistema. Creemos que al sistema le faltan más fuentes robustas y grandes de potencia de base independientes de la meteorología. Es inevitable preguntarse si añadir algunas nucleares grandes en zona centro no anclarían mejor el sistema.
Nick Hanauer es un empresario y capitalista de riesgo estadounidense, que se preocupa y se compromete con los problemas de su país. Publicó esta nota en The Atlantic, que reproducimos aquí, donde escribe sobre los de la educación y de la sociedad norteamericana. Y por todas las diferencias entre las dos sociedades, los problemas y hasta las fechas son muy parecidos!. También, nos gustaría que tuviéramos más empresarios como Hanauer en Argentina.
«Hace tiempo me cautivó una idea seductora y fácil de entender, en la que muchos de mis amigos ricos aún creen: que tanto la pobreza como la creciente desigualdad son en gran parte consecuencias del deficiente sistema educativo de Estados Unidos. Así, pensaba que solucionando eso podríamos curar gran parte de los males que nos aquejan.
Este sistema de creencias, que llamo «educacionismo», se basa en una historia conocida, y en una noción de causa y efecto: Estados Unidos creó un sistema de educación pública que era la envidia del mundo moderno. Ninguna Nación produjo graduados con mayor o mejor educación, y así se construyó la gran clase media estadounidense. Pero alrededor de la década de 1970, Estados Unidos perdió el rumbo. Permitimos que nuestras escuelas se derrumbaran, y nuestros puntajes en los exámenes y tasas de graduación bajaran.
Los sistemas escolares que producían obreros fabriles bien pagos no pudieron seguir el ritmo de las crecientes demandas educativas de la nueva economía del conocimiento. A medida que las escuelas públicas se hundían, también lo hacía el poder adquisitivo de la clase media. Y con la desigualdad, también aumentaba la polarización política, el cinismo y la violencia, que amenazan con socavar la democracia estadounidense.
Por eso tomé la educación como una causa filantrópica y una misión cívica. He dedicado innumerables horas y millones de dólares a la simple idea de que si mejoramos nuestras escuelas, si modernizamos nuestros planes de estudio y nuestros métodos de enseñanza, aumentamos sustancialmente los fondos escolares, eliminamos a los malos maestros y abrimos suficientes escuelas, los niños, especialmente los de las comunidades de bajos ingresos y de la clase trabajadora, comenzarían a aprender nuevamente. Las tasas de graduación y los salarios aumentarían, la pobreza y la desigualdad disminuirían, y se restablecería el compromiso público con la democracia.
Pero después de décadas de organización y entrega, he llegado a la incómoda conclusión que estaba equivocado. Y odio estar equivocado.
Tardé décadas en darme cuenta de que el educacionismo es un error trágico. El problema de los trabajadores es porque están mal pagos, porque 40 años de confiar en el derrame han manipulado la economía en favor de los ricos como yo. Los estadounidenses están más educados que nunca, pero a pesar de eso, y a pesar del desempleo más bajo que nunca, la mayoría de los trabajadores, de todos los niveles educativos, han visto poco o ningún aumento salarial desde el año 2000.
Nuestro sistema educativo no puede compensar las fallas de nuestro sistema económico.
Debemos hacer todo lo posible para mejorar nuestras escuelas públicas. Pero ni el programa de reforma escolar más reflexivo y bien intencionado puede mejorar los resultados educativos si ignora el principal impulsor del logro estudiantil: el ingreso familiar.
A pesar de todas las fallas del sistema educativo todavía tenemos muchos distritos de escuelas públicas de alto rendimiento. Casi todos ellos están sostenidos por una comunidad próspera de familias de clase media económicamente seguras, con suficiente poder político para exigir grandes escuelas, tiempo y recursos para participar en ellas y dinero de los impuestos para financiarlas. En resumen, las grandes escuelas públicas son el producto de una clase media próspera, y no al revés. Páguese lo suficiente a las personas como para costear vidas dignas de clase media, y la consecuencia serán escuelas públicas de alta calidad. Pero permítase que la desigualdad económica crezca, y la desigualdad educativa crecerá inevitablemente con ella.
Al distraernos de estas verdades, el educacionismo es parte del problema.
Cada vez que hablo con mis amigos adinerados sobre los peligros del aumento de la desigualdad económica, aquellos que no se quedan mirando sus zapatos invariablemente responden con algo sobre el lamentable estado de nuestras escuelas públicas. Esta creencia está tan arraigada entre la elite filantrópica que de las 50 fundaciones familiares más grandes (que administran 144.000 millones de dólares en activos exentos de impuestos), 40 declaran que la educación es un tema clave. Solo uno menciona algo sobre la difícil situación de los trabajadores, la desigualdad económica o los salarios. Y debido a que los estadounidenses más ricos son tan poderosos políticamente, las consecuencias de sus creencias van mucho más allá de la filantropía.
Un tema importante en la narrativa educacional es la “brecha de habilidades”, la noción de que décadas de estancamiento salarial son en gran medida consecuencia de que los trabajadores no tengan la educación y las habilidades para ocupar nuevos empleos con salarios altos. Ese razonamiento agrega que si mejoramos nuestras escuelas públicas y aumentamos el porcentaje de estudiantes que alcanzan niveles más altos de educación, particularmente en ciencia, tecnología, ingeniería y matemática (las materias STEM, por sus iniciales en inglés), la brecha de habilidades se reducirá, los salarios aumentarán y la desigualdad de ingresos caerá.
La verdadera historia es más complicada, y más preocupante. Sí, hay un desajuste entre las habilidades del presente y los empleos del futuro. En una economía tecnológicamente avanzada que cambia rápidamente, ¿cómo podría no haberlo? Pero este desajuste no explica la creciente desigualdad de los últimos 40 años.
En 1970, cuando la edad de oro de la clase media estadounidense estaba llegando a su punto máximo y la desigualdad al mínimo, solo la mitad de los estadounidenses mayores de 25 años tenían un diploma de escuela secundaria o su equivalente. Hoy, el 90% lo tiene. La proporción de estadounidenses que obtuvieron un título universitario se ha más que triplicado desde 1970. El pueblo nunca ha estado mejor educado, pero solo los más ricos han tenido grandes aumentos en los salarios reales. De 1979 a 2017, el ingreso promedio anual real del 1% de los estadounidenses aumentó 156% (y el ingreso del 0,01% superior aumentó en un impresionante 343%), pero el poder adquisitivo promedio de los estadounidenses no aumentó.
Algunos educadores podrían argumentar que los recientes avances educativos no han sido suficientes para mantenerse al día en una economía cambiante, pero aquí, una vez más, la verdad parece más complicada. Mientras que el 34% de los estadounidenses mayores de 25 años tienen una licenciatura o más, solo el 26% de los trabajos lo requieren. Además, las categorías de empleos que crecen más rápido, por lo general, no requieren un diploma universitario, y mucho menos un título STEM. Según las estimaciones oficiales, cuatro de las cinco categorías ocupacionales proyectadas para agregar la mayor cantidad de empleos a la economía en los próximos cinco años se encuentran entre los empleos con los salarios más bajos: «preparación y servicio de alimentos» (19.130 dólares promedio anuales), «cuidado personal y servicio» ( 21.260), «ventas y afines» (25.360) y «asistencia paramédica» (26.440 dólares al año).
En octubre de 2018 hubo un millón de vacantes laborales más que solicitantes de empleo. Incluso si todos estos empleos no ocupados fueran en profesiones STEM en la parte superior de la escala salarial, serían de poca ayuda para la mayoría de los 141 millones de trabajadores estadounidenses en nueve deciles inferiores de ingresos.
Es cierto que los trabajadores con un título universitario disfrutan de una diferencia salarial significativa sobre los que no lo tienen (un promedio de 53.882 dólares en 2017, en comparación con 32.320 para quienes solo tienen educación secundaria). Pero incluso con esa ventaja, el salario promedio por hora para los graduados universitarios apenas se ha movido desde el 2000, mientras que el 60% de los graduados universitarios gana menos que en el año 2000. Un diploma universitario ya no es un pasaporte seguro a la clase media.
Casi todas las ventajas del crecimiento económico han sido captadas por las grandes empresas y sus accionistas. Las ganancias corporativas después de impuestos se han duplicado, de alrededor del 5% del PIB en 1970 a alrededor del 10%, incluso cuando los salarios como porcentaje del PIB han caído en aproximadamente el 8%. Y la participación del 1% más rico en los ingresos antes de impuestos se ha más que duplicado, desde el 9% en 1973 hasta el 21% en la actualidad. En conjunto, estas dos tendencias representan una transferencia de más de 2 billones de dólares al año, de la clase media a las corporaciones y los super ricos.
El estado del mercado laboral proporciona evidencia adicional de que la disminución de la fortuna de los trabajadores con salarios bajos no se explica por la oferta y la demanda. Con la tasa de desempleo cerca del mínimo en 50 años, las industrias de bajos salarios, como alojamiento, servicio de alimentos y comercio minorista, están luchando para hacer frente a la escasez de solicitantes de empleo, lo que lleva a The Wall Street Journal a lamentar que «los empleos de baja cualificación son cada vez más difíciles de cubrir para los empleadores”.
Si los salarios se establecieran de la manera que sugerían nuestros libros de texto, los trabajadores se beneficiarían de esta dinámica. Sin embargo, fuera de las ciudades y los estados que recientemente han impuesto un salario mínimo local sustancialmente más alto, los trabajadores de bajos salarios han visto que sus ingresos reales apenas se mueven.
Todo lo cual sugiere que la desigualdad en los ingresos no se ha disparado debido a las fallas educativas de nuestro país, sino a pesar de su progreso educativo. Por justificable que sea mejorar los planes de estudio y la innovación y la reforma institucional, las personas que ven la educación como una solución para todo han ignorado la mejor medición predictiva del éxito educativo de un niño: el ingreso familiar.
La literatura científica sobre este tema es robusta, y el consenso es abrumador. Cuanto más bajos sean los ingresos de sus padres, más bajo será su nivel probable de logros educativos. Punto. Pero en lugar de centrarse en formas de aumentar los ingresos familiares, los educadores de ambos partidos políticos hablan de ampliar las oportunidades a los niños pobres, más recientemente en forma de escuelas charter o autónomas. Sin embargo, para muchos niños, especialmente aquellos criados en la pobreza racialmente endémica de gran parte de los Estados Unidos, la oportunidad de asistir a una buena escuela pública no es suficiente para superar los efectos de los ingresos familiares limitados.
Como señala el economista liberal Lawrence Mishel, la pobreza crea obstáculos que podrían hacer tropezar incluso a los estudiantes más dotados. Señala la difícil situación de «los niños que cambian de escuela con frecuencia debido a una vivienda deficiente; poca ayuda con la tarea; pocos modelos de éxito a seguir; más exposición al plomo y al amianto; problemas de visión, oído, dentales u otros problemas de salud no tratados; … y vivir en un entorno caótico y frecuentemente inseguro».
Varios estudios han encontrado que solo alrededor del 20% de los resultados de los estudiantes pueden atribuirse a la escolarización, mientras que alrededor del 60 % se explica por las circunstancias familiares, y en especial, los ingresos. Algo más de la mitad de los estudiantes de escuelas públicas de hoy llenan los requisitos para recibir almuerzos escolares gratuitos o de precio reducido, 38% más que en 2000. Si los estudiantes se están rezagando en la alfabetización, el cálculo numérico y las habilidades de resolución de problemas que demanda la economía moderna, la mayor parte de la culpa no la tienen los docentes o sus sindicatos, sino los bajos ingresos familiares.
Si realmente queremos dar a cada niño una oportunidad pareja de tener éxito, debemos hacer mucho más que ofrecerles una escalera de oportunidades, también debemos reducir la distancia entre los peldaños de la escalera. Debemos invertir no solo en nuestros hijos, sino también en sus familias y sus comunidades. Debemos proporcionar educación pública de alta calidad, seguro, pero también viviendas de alta calidad, atención médica, atención infantil y todos los otros requisitos previos para una vida segura de clase media. Y lo más importante, si queremos construir el tipo de comunidades prósperas de clase media en las que las grandes escuelas públicas siempre han prosperado, debemos pagar a todos nuestros trabajadores, no solo a los ingenieros de software y financieros, un salario digno de clase media.
Hoy en día, después de que las élites adineradas engullen nuestra gran proporción de ingresos nacionales, la familia estadounidense media recibe 76.000 dólares al año. Si la remuneración por hora hubiera crecido con la productividad desde 1973, como lo hizo durante el cuarto de siglo anterior, según el Instituto de Política Económica, esa familia ahora ganaría más de 105.000 dólares al año. Imagínese, dejando de lado las reformas educativas, cuánto más grande, más fuerte y mejor educada sería nuestra clase media si la familia estadounidense promedio disfrutara de un aumento de 29.000 dólares por año.
De hecho, la forma más directa de abordar la creciente desigualdad económica es simplemente pagar más a los trabajadores, aumentando el salario mínimo; mediante el fortalecimiento del poder de negociación del trabajo; y cobrando impuestos más altos, mucho más altos, sobre personas ricas como yo y nuestros bienes.
El educacionismo atrae a los ricos y poderosos porque nos dice lo que queremos escuchar: que podemos ayudar a restaurar la prosperidad compartida sin compartir nuestra riqueza o poder. Como lo explica Anand Giridharadas en su libro Winners Take All: The Elite Charade of Changing the World, narraciones como esta permiten que los ricos nos sintamos bien con nosotros mismos. Al distraerse de las verdaderas causas de la desigualdad económica, también defienden el status quo extremadamente desigual de Estados Unidos.
Hemos confundido un síntoma, la desigualdad educativa, con la enfermedad subyacente: la desigualdad económica. La escolarización puede aumentar las perspectivas de los trabajadores individuales, pero no cambia el problema central, que es que el 90 % inferior está participando de una parte cada vez menor de la riqueza nacional. Arreglar ese problema requerirá que las personas ricas no solo den más, sino que tomen menos.»
Ayer domingo 16 de junio -«Día del Padre»- un gigantesco apagón dejó sin energía eléctrica a toda la Argentina y parte de los países vecinos durante toda la mañana. Unos 50 millones de personas se quedaron sin luz. El sistema se fue recuperando paulatinamente, y los medios hoy describen en detalle los problemas originados. Pero la misma magnitud de la falla hace que, hasta por una cuestión de seguridad nacional, las preguntas importantes sean: ¿Cómo pudo suceder? y ¿Cómo puede evitarse que ocurra en el futuro?
Lo que ya se sabe con certeza es que hubo un colapso total del Sistema Argentino de Interconexión (SADI). Se trata de un sistema de red interconectado, de 500 kw, que atraviesa el país desde las provincias del norte hasta Santa Cruz (la única provincia que no está unida a ese sistema es Tierra del Fuego). Y está conectado a las redes de países vecinos.
Así, el corte afectó a casi la totalidad de Argentina, parte de Uruguay, Chile, Brasil y brevemente a una línea de 220kV del Paraguay. Estos datos fueron proporcionados por la Entidad Nacional Yaciretá, que fue el primer ente en deslindar responsabilidades, y afirmar que no hubo ningún problema en la generación de energía.
La red SADI se nutre de energía gracias a generadores como Yacyretá, el Chocon, y otras centrales, algunas de ellas de energías renovables. El sistema tiene subestaciones, que reducen la tensión, de 500kw, a 320 kw, o 132kw. En torno a cada subestación se conforman las regiones que abastecen la demanda.
El sistema es administrado por la Compañía Administradora del Mercado Mayorista Eléctrico (CAMMESA), cuyos accionistas son los generadores, los transportistas, los distribuidores, los grandes usuarios, y el Estado Nacional. Cada sector tiene el 20% de participación y forma parte del directorio.
La red es operada por transportistas y luego distribuida por compañías públicas (provinciales) o privadas. En el caso de la ciudad de Buenos Aires, lo hacen Edenor y Edesur. En el caso de la provincia de Buenos Aires, lo hacen EDEA y EDES.
Las causas:
Hasta ahora el presidente Macri y sus funcionarios han sido muy cautelosos. Sólo han dicho que es un «caso inédito», «un hecho muy grave», y que «será investigado a fondo». En Cammesa se informó: «A las 07:06 del día domingo 16 de junio se produjo un cortocircuito en la línea de 500 kV Colonia Elía – Belgrano», paralela a línea Colonia Elía -Nueva Campana, que está fuera de servicio por reubicación.
«Simultáneamente, y por causas que están investigando, se desenganchó la línea de 500 kV Mercedes-Colonia Elía. Si bien el sistema está preparado para soportar el desenganche de otra línea de 500 kV, en este caso se desengancharon dos líneas simultáneamente, ya que una estaba indisponible. Este debilitamiento anormal de la red de transmisión posiblemente desestabilizó las centrales de Yacyretá y Salto Grande y se perdieron sus aportes (alrededor de 3700 MW)».
La sobrecarga que se generó, sin embargo, debería haber afectado solamente esa zona, que son 3000 MW de demanda. Pero algo ocurrió, que hizo disparar todas las protecciones del sistema y para protegerlo se apagó la totalidad de la generación«.
Las fuentes que consultó el periodista Martín Bidegaray, de Clarín, son más incisivas: «Hacia adentro se admite que hubo errores en los circuitos que van desde las líneas de transmisión hacia las generadoras. En el sector eléctrico, nadie entiende cómo los operadores del sistema no lograron aislar la falla del Litoral -como sucedió varias veces en ocasiones anteriores-, para que el corte quedara restringido a esa zona, y no se extendiera por todo el país».
Los especialistas sostienen que la responsabilidad es de Transener, la empresa que controla la transmisión eléctrica, y Cammesa, la mayorista del sistema eléctrico que está bajo control estatal. Durante el gobierno anterior, del que el sector se quejaba del retraso tarifario, nunca llegó a concretarse un corte de esa magnitud. Transener y Cammesa debían manejarse en un diálogo permanente. Pero algo falló en esa comunicación.
«Problemas en las líneas de transmisión son habituales. Lo poco habitual es que este problema (sin crisis, sin alta demanda, en un día tranquilo) se haya convertido en tremendo apagón», detalla un especialista que pidió no ser identificado. «Si en la Secretaría de Energía no supieron minuto a minuto lo que estaba pasando, puede que alguien de Transener y/o Cammesa no les haya avisado o les ocultó información», puntualiza alguien que ya estuvo en esa relación y enfrentó otros sofocones con cortes.
Cuando salta o se interrumpe una línea de transmisión eléctrica por algún desperfecto, el procedimiento para detener los riesgos es automático. Pero hay alguien, un operador, que está al tanto de ese desajuste. Esa persona está en Transener. Esa firma es controlada por Citelec, una sociedad cuyos accionistas son Pampa Energía (de Marcelo Mindlin) e Ieasa (la ex Enarsa), en partes iguales.
El rol que debió jugar Transener es avisarle a su contraparte de Cammesa, la mayorista del sistema eléctrica. Entre ambos, deben decidir el curso que le darán a la generación para que el suministro no se interrumpa, según entienden los especialistas.
«El proceso es sencillo. Cuando una línea se desliga (cae del sistema), se busca una alternativa y se mantiene el funcionamiento por ese lado. En general, hay dos líneas alternativas por cada una que se cae, ya que se está preparado para esa eventualidad», grafican un gran cliente de Cammesa.
La experiencia internacional muestra que estos eventos se originan en errores operativos y/o de coordinación entre el operador y la transportista. La investigación debe ser expeditiva y explicar que ha ocurrido”, dice Gerardo Rabinovich, vicepresidente del Instituto Argentino de la Energía «General Mosconi» y ex director de Control de Gestión del ministerio de Energía (entre agosto de 2016 y octubre de 2017).
Al momento del corte, Cammesa estaba despachando más electricidad desde el Litoral, tratando de aprovechar el caudal de agua por lluvias, ya que la generación hidroeléctrica es más económica. Sin embargo, ese ahorro de costos pudo haber complicado la capacidad de reacción operativa, según especulaban este domingo técnicos que dialogan con la Secretaría de Energía.