Cómo el chatbot de inteligencia artificial de Microsoft alucina información electoral

Cómo la inteligencia artificial del chatbot de Microsoft recopila información electoral

El próximo año será ocupado para la democracia. Se llevarán a cabo elecciones importantes en Estados Unidos, la UE y Taiwán, entre otros. Justo cuando el despliegue de la era de la IA generativa está tomando impulso en serio, algo que algunos temen que pueda resultar perjudicial para el proceso democrático. Una de las principales preocupaciones sobre la IA generativa es que se pueda utilizar para la difusión maliciosa de desinformación, o que los modelos puedan inventar declaraciones falsas presentándolas como hechos, las llamadas alucinaciones. Un estudio de dos ONG europeas ha encontrado que el chatbot de Microsoft, Bing AI (ejecutándose en GPT-4 de OpenAI), dio respuestas incorrectas a un tercio de las preguntas sobre las elecciones en Alemania y Suiza.

El estudio fue realizado por Algorithm Watch y AI Forensics. Las organizaciones dijeron que pusieron a prueba al chatbot con preguntas relacionadas con candidatos, información sobre encuestas y votaciones, así como solicitudes de recomendaciones sobre a quién votar cuando se trata de temas específicos, como el medio ambiente.

“Nuestra investigación muestra que los actores maliciosos no son la única fuente de desinformación; los chatbots de propósito general también pueden ser igual de amenazantes para el ecosistema de información”, comentó Salvatore Romano, investigador principal de AI Forensics. “Microsoft debería reconocer esto y darse cuenta de que señalar el contenido de IA generativa creado por otros no es suficiente. Sus herramientas, incluso cuando implican fuentes confiables, producen información incorrecta a gran escala”.

El chatbot de Microsoft atribuyó información falsa a fuentes

Según el estudio, los errores incluyeron “fechas de elecciones equivocadas, candidatos desactualizados, e incluso controversias inventadas relacionadas con los candidatos”. Además, la información incorrecta a menudo se atribuía a una fuente que tenía la información correcta sobre el tema. También inventaba “historias sobre la implicación de los candidatos en comportamientos escandalosos”, atribuyendo también la información a fuentes confiables.

En ocasiones, el chatbot de IA de Microsoft evadía responder preguntas a las que no sabía las respuestas. Sin embargo, en lugar de no responder, a menudo simplemente inventaba una respuesta, incluyendo fabricar acusaciones de corrupción.

Las muestras para el estudio se recopilaron desde el 21 de agosto de 2023 hasta el 2 de octubre de 2023. Cuando los autores informaron a Microsoft de los resultados, el gigante tecnológico dijo que investigaría para solucionar el problema. Sin embargo, un mes después, nuevas muestras arrojaron resultados similares.

La oficina de prensa de Microsoft no estuvo disponible para hacer comentarios antes de la publicación de este artículo. Sin embargo, un portavoz de la empresa dijo al Wall Street Journal que Microsoft “continuaba abordando problemas y preparando nuestras herramientas para cumplir con nuestras expectativas para las elecciones de 2024”. Mientras tanto, también instaron a los usuarios a aplicar su “mejor criterio” al revisar los resultados del chatbot de IA de Microsoft.

“Es hora de desacreditar el referirse a estos errores como ‘alucinaciones'”, dijo Riccardo Angius, líder de Matemáticas Aplicadas e investigador de AI Forensics. “Nuestra investigación expone la ocurrencia mucho más intrincada y estructural de errores factuales engañosos en LLMs y chatbots de propósito general”.

Puedes encontrar el estudio completo aquí.