Un fallido ChatBot que funciona con IA mostró los límites que todavía tiene esta tecnología

En el Reino Unido, la Asociación Nacional para Trastornos Alimenticios ha cerrado su línea de atención telefónica y abrió un programa de body positivity liderado por un bot de IA llamado Tessa.Sin embargo, no dio los mejores consejos y la organización quedó en el medio de una polémica.»Tessa, el chabot de IA que aconsejó a las personas con TCA contar calorías y pesarse semanalmente»Pregunta. Respuesta. Un formato tan simple puede tener una influencia muy compleja en la vida de muchas personas. Cada día los chatbots conversacionales programados por inteligencia artificial están tomando más protagonismo y, sin saber, estamos en contacto con ellos diariamente.
Sin embargo, no siempre estas respuestas son correctas y constructivas. Este fue el caso de La Asociación Nacional para Trastornos Alimenticios (NEDA por sus siglas en inglés) que tuvo que dar de baja su chatbot Tessa debido a que estaba dando consejos perjudiciales para la salud, tanto mental como física, según reportó un artículo.

Muchas empresas han puesto asistentes “virtuales” para brindar ayuda automatizada y rápida

  1. Contar las calorías
  2. Realizar un déficit calórico de 500 a 1000 calorías diarias
  3. Pesarse y medirse semanalmente
  4. Tener como objetivo perder 400 a 800 gramos por semana

Ante las críticas, NEDA sacó un comunicado oficial en sus redes sociales y respondió a la polémica. “Anoche nos llamó la atención que la versión actual del chatbot Tessa, que ejecuta el programa Body Positive, podría haber dado información perjudicial y no relacionada con el programa». Junto a esta declaración, la organización se comprometió a investigar inmediatamente la causa y confirmaron que dieron de baja a su bot.

Sin embargo, ese comunicado no alcanzó. “Es tiempo de que NEDA dé un paso al costado”, afirmó Maxwell. “Si yo hubiese tenido acceso a este chatbot cuando tenía mi trastorno de conducta alimentaria, no hubiese sido de gran ayuda”, profundizó. La influencer concluyó su posteo con un alarmante pedido a su comunidad de dejar atrás a NEDA y de apoyar a las comunidades que realmente están ayudando a las personas con TCA.

.
Además, Conason hizo hincapié en otra polémica que convoca al caso. “NEDA cerró recientemente su línea de atención telefónica después de que los trabajadores se sindicaran, despidieron a su personal y lanzaron este bot de IA. ¿Qué podría salir mal?”, preguntó retórica e irónicamente la psicóloga.
.
En detalle, NEDA echó a cuatro de sus empleados en marzo luego de que estos se unieran al sindicato de Communications Workers (CWA). Abbie Harper, una empleada de atención al cliente telefónica, declaró en una nota para Labour Notes que ellos ni siquiera querían más dinero, sino más capacitación para satisfacer las demandas de las personas que necesitan ayuda.
.

La CEO de NEDA, Liz Thompson, declaró que este chatbot nunca estuvo pensado para “reemplazar” humanos, sino más bien estuvo formulado como un programa aparte. Además, afirmó que las razones por las cuales cerraron la línea telefónica fueron por cuestiones “de la empresa” y que esta decisión había estado en evaluación hace tres años.

.

Este caso es una mera demostración de nuestro presente y trae sobre la mesa la pregunta que recorre todos los titulares: ¿se podrá, verdaderamente, reemplazar al humano? Los intentos, hasta hoy, han traído varios problemas y polémicas, más cuando se trata de cuestiones tan sensibles y que requieren de una inteligencia emocional en acción. Si bien hay ciertas tareas reemplazables, hay una que nunca se podrá imitar: la capacidad de sentir.

VIARedaccion.com.ar