La Fundación Sadosky advierte sobre el mal uso de la Inteligencia Artificial en esta pandemia

«En las últimas semanas hemos tenido noticias de lanzamientos no oficiales de aplicaciones, plataformas y análisis de todo tipo, basados en Inteligencia Artificial (IA), en relación a la pandemia de Coronavirus: aplicaciones para celular que predicen el riesgo de un individuo a contagiarse con solo compartir la geolocalización; algoritmos que prometen diagnosticar coronavirus a partir de imágenes de tomografías o rayos x; sistema de diagnóstico a partir de la voz; predicciones sobre futuros números de casos positivos, fallecidos, recuperados; iniciativas que pretenden resolver el problema de subdiagnóstico; entre otros proyectos.

A simple vista parecería que la IA es una herramienta poderosa en la lucha contra el COVID-19. Esa narrativa parece replicarse, cada vez más, en medios de comunicación y redes sociales. Y si bien es cierto que la IA ha tenido un desarrollo destacado en años recientes, y su uso es exitoso y palpable (como por ejemplo cuando se procesan nuestras imágenes una red social para identificar personas y objetos, cuando hacemos traducciones en línea, filtrar spam, recomendación de productos y otras aplicaciones comerciales), es importante destacar que tales aplicaciones están basadas en la disponibilidad de grandes cantidades de datos y años de desarrollo y perfeccionamiento, sumado a que, en general, son aplicaciones no críticas.

Desde la Fundación Sadosky queremos invitar a la población, y a los medios de comunicación, a ser cautos con el uso y la difusión de esas aplicaciones, plataformas y análisis, debido a que muchos han visto la oportunidad de generar impacto con la pandemia y no dudan en lanzar propuestas, que, en su mayoría, adolecen de una o varias de las siguientes fallas:

– Falta de acceso a datos de calidad y en la cantidad que los algoritmos de IA requieren para brindar resultados confiables. Durante una pandemia con el sistema de salud en alerta y con riesgo de colapso, esa información no resulta fácil de conseguir. Los Estados recién están organizando esfuerzos para recolectar esos datos genuinos y poder ponerlos en manos de la comunidad científica.

– No poseen una homologación por parte de los organismos de control, lo que requiere tiempo para que sean validadas por profesionales expertos y testeadas en el ámbito clínico.

– Se utilizan heurísticas o recetas oscuras para procesar y comparar los datos, que son de de escaso o nulo rigor matemático y metodológico.

– Siguiendo con la falta de rigor, se comparan curvas y se hacen extrapolaciones de otros casos y países, en las que los resultados son extremadamente sensibles a pequeños errores en la recolección de datos y en los protocolos de reporte, lo cual arroja conclusiones carentes de validez.-

– Requieren que el usuario ceda información personal sensible, como puede ser su historial de geolocalización, su estado de salud o incluso sus radiografías, sin una política clara de privacidad, ni de protección de datos. Y ésto en desarrollos apresurados e inmaduros, lo que supone un riesgo adicional de filtración de datos.

Resumiendo, la inteligencia artificial es una herramienta con mucho potencial y aplicable a las más diversas áreas, pero requiere acceso a datos confiables, revisiones y pruebas para evitar sesgos, y más aún, como cualquier dispositivo aplicado a la salud, requiere de homologaciones y aprobación por los organismos de control que aseguren su idoneidad y fiabilidad.

Además, debemos utilizarla de manera crítica. De no ser así, se podría incurrir en conclusiones falaces, toma de decisiones erróneas, crear angustia y preocupaciones innecesarias, por lo que, nuevamente, desde la Fundación Sadosky exhortamos a la población, y los medios, a minimizar su uso y difusión, y en tal caso a no tomar sus predicciones como certeras bajo ningún aspecto.»