Reproducimos el informado comentario de Marcelo Falak, en DesPertar
Un diputado presento en una comision en Diputados un texto que fue escrito reciéntemente por un chat de inteligencia artificial, GPT-3, que tiene un modelo de 175 millones de parámetros para construirse y que contestó la pregunta ‘¿Por qué los populismos en el mundo tienden a controlar los poderes judiciales de sus Estados?’
Según Bloomberg, la profesora del Instituto Santa Fe de Estados Unidos Melanie Mitchell explicó que dichos sistemas «hacen asociaciones estadísticas masivas entre palabras y frases». Así, «cuando comienzan a generar un nuevo lenguaje, confían en esas asociaciones, las que a su vez pueden resultar sesgadas de modo racista u otros».
Por su propia lógica de construcción –el «aprendizaje» a través del uso que hace la gente– «es imposible que un software de inteligencia artificial sea políticamente neutral», señaló a USA Today Jake Denton, investigador asociado de la Heritage Foundation.
Odiamos decepcionar al diputado, pero la inteligencia artificial no solo tiene sesgos, sino que también todavía puede cometer errores groseros. Las acciones de Google se desplomaron 12% en las últimas dos ruedas en Wall Street porque su desarrollo de IA dio una respuesta equivocada a la pregunta de «¿qué descubrimientos del telescopio espacial James Webb puedo contarle a mi hijo de nueve años?». Ese desplome redujo el valor de mercado del gigante tecnológico en nada menos que 144.000 millones de dólares.