De Terminator a Robocop o los Transformers, los robots asesinos ya son personajes rutinarios de la filmografía de ciencia ficción. Pero, sin adoptar un aspecto humano, esas figuras de pesadilla ya forma parte del arsenal de las potencias. Para combatir contra ello, también llegó a Buenos Aires la segunda reunión (antecedida por otra del año pasado en Berlín) de la campaña global Stop Killer Robots, que promueve un acuerdo internacional para prohibir el desarrollo de armas autónomas.
«Los robots asesinos (killer robots) son sistemas que tienen la capacidad de seleccionar y atacar un objetivo sin intervención humana -explica Pía Devoto, coordinadora de la Red de Seguridad Humana en Latinoamérica y el Caribe (Sehlac) y organizadora del encuentro-. Es terrible, pero las investigaciones que están haciendo algunos países, como Estados Unidos, Rusia, Corea del Sur, Israel y Francia van en esa dirección».
Ya en 2015, celebridades como el físico Stephen Hawking; el mítico creador de la Apple II, Steve Wozniak, y el multimillonario emprendedor Elon Musk habían encabezado una lista de 1000 tecnólogos, científicos y activistas que firmaron una carta dirigida al gobierno británico para prohibir el uso de la inteligencia artificial con fines bélicos.
Se calcula que en el mundo hay alrededor de 3000 expertos en robótica e IA y más de 200 empresas que dominan esa tecnología. «La campaña ahora tiene 300 activistas -cuenta Devoto, que hace muchos años trabaja en temas internacionales de control de armas, en especial en lo referente a las minas antipersonales-. A Buenos Aires vinieron 120 desde más de 40 países. Estamos impulsando un acuerdo internacional para la prohibición. Queremos que nuestros países se conviertan en campeones de la prevención de estas armas que Antonio Guterres, secretario general de las Naciones Unidas, calificó de ‘moralmente repugnantes y políticamente inaceptables'».
Mientras algunos argumentan que el uso de máquinas inteligentes reduciría las bajas humanas, lo cierto es que tienen aristas controversiales difíciles de soslayar. «El problema más grande es ético -subraya Devoto-, pero también está el vacío legal. ¿Como haría un arma completamente autónoma para respetar el principio de distinción, proporcionalidad y necesidad militar del derecho internacional? ¿Si uno de estos dispositivos iniciara un acto de guerra ilícito, a quién se le adjudicaría la responsabilidad? Los sistemas de software tienen sesgos. La máquina no tiene la posibilidad de distinguir entre un combatiente, un herido, alguien indefenso o que se está entregando». Para complicar aun más la situación, a diferencia de las armas nucleares, las materias primas necesarias para construirlas no exigen grandes inversiones ni son difíciles de obtener.
Tomar cartas en el asunto
«El objetivo de la campaña es crear conciencia de que estas armas son posibles y tanto o más peligrosas que las nucleares; incluso podrían pensarse armas nucleares inteligentes -agrega Vanina Fernández, investigadora en IA del Instituto de Ciencias de la Computación (UBA/Conicet) que comenzó a interesarse en el tema en 2015-. Ya se vieron informes de Rusia y China donde se advierten desarrollos. Es posible pensar en un sistema de reconocimiento facial y agregarlo a un arma. Además, muchos de estos modelos de IA son de código abierto».
Durante el encuentro en Buenos Aires, se hicieron actividades para el público general y para especialistas. Ayer, varios investigadores dieron charlas tipo TED en el Centro Cultural de la Ciencia (en Godoy Cruz y Soler), antes de encaminarse hacia la Plaza de Mayo para para solicitar, frente a la Casa de Gobierno, que la Argentina promueva el acuerdo de prohibición.
A los científicos, les piden que se nieguen a participar en investigaciones que puedan conducir a estos armamentos.
«La tecnología no es neutral -destacó Laura Nolan, exingeniera de Google que renunció a la compañía por haber sido asignada a un proyecto para mejorar la tecnología de drones militares de los Estados Unidos-. El uso de software para situaciones de conflicto no es seguro ni razonable. Esos sistemas no entienden reglas abstractas, es imposible programar todo el contenido del derecho humano internacional para que luego lo interpreten automáticamente. Si bien se desarrollan en la actualidad modelos de aprendizaje automático a partir de la experiencia, las máquinas no entenderían el contexto ni lograrían comprender situaciones particulares que se dan con los humanos en escenarios de conflicto, sobre todo porque podrían atacar a población civil sin tener en cuenta su condición. Estoy en contra de este tipo de sistemas y creo que la comunidad científica, y nosotras, como mujeres investigadoras, debemos tomar cartas en el asunto».
Y agregó la activista africana Sylvie Ndongmo: «Estamos viendo un aumento constante de la inversión en la carrera armamentista. Desde este campaña se entiende que los robots asesinos también son una cuestión de género.»
Para identificar su lema, la campaña Stop Killer Robots, iniciada el año pasado en Berlín y que ya reúne a 300 adherentes (entre funcionarios, investigadores y activistas de ONG), adoptó como símbolo un robot, que en esta edición tiene género femenino: María.