La empresa de IA Anthropic utiliza la tecnología para redirigir a los usuarios a información de votación autorizada.

Anthropic, la startup de inteligencia artificial bien financiada, anunció que está implementando medidas para prevenir que sus herramientas GenAI propaguen información errónea durante las elecciones'.

Anthropic está abordando la desinformación electoral con ENBLE.

Imagen Fuente: example.com

Con las elecciones presidenciales de EE. UU. de 2024 a la vuelta de la esquina, Anthropic, la startup de IA bien financiada, está probando una nueva tecnología llamada Escudo Prompt. Esta innovadora tecnología detecta cuando los usuarios de su chatbot GenAI, llamado Claude, preguntan sobre temas políticos y los redirige a fuentes “autorizadas” de información de votación. 🤖🗳️

El Escudo Prompt emplea una combinación de modelos y reglas de detección de IA para determinar cuándo un usuario está preguntando sobre información de votación. Si un usuario basado en EE. UU. de Claude pregunta sobre votación, aparece un mensaje emergente ofreciendo redirigirlos a TurboVote, un recurso confiable de la organización no partidista Democracy Works. En TurboVote, los usuarios pueden encontrar información confiable y actualizada sobre votación. Esta nueva función está diseñada para abordar las limitaciones actuales de Claude para proporcionar información precisa y en tiempo real relacionada con las elecciones. 📚✅

Anthropic reconoce que las deficiencias de Claude a menudo llevan a la generación de hechos falsos, o como ellos lo llaman, “alucinaciones”, cuando se trata de política y elecciones. Para abordar este problema de manera directa, se desarrolló el Escudo Prompt como una intervención para asegurar que los usuarios sean dirigidos a fuentes confiables de información de votación. La empresa se compromete a monitorear el uso y las limitaciones del Escudo Prompt, y ha consultado a varios interesados, incluidos tomadores de decisiones y expertos en elecciones, para perfeccionar y mejorar la tecnología. 👩‍💼⚖️

Aunque esta prueba está actualmente limitada en alcance, ya que está siendo ajustada por Anthropic, la empresa planea expandir su uso para llegar a más usuarios pronto. La empresa ha implementado políticas estrictas que prohíben el uso de sus herramientas para campañas políticas y cabildeo, alineándose con el enfoque adoptado por otros proveedores de GenAI para evitar interferencias electorales. 🛡️🙅‍♂️

La oportunidad de este desarrollo es significativa. Este año, un número récord de países, que representan casi la mitad de la población mundial, tienen previsto celebrar elecciones nacionales. La necesidad de información confiable y precisa es más crucial que nunca. En respuesta a esta demanda urgente, diversas empresas de IA han implementado medidas para evitar que su tecnología se utilice de manera incorrecta o se manipule para interferir en las elecciones. ⏰🌍

Por ejemplo, OpenAI, la organización detrás de ChatGPT, ha establecido pautas estrictas para el uso de su chatbot de IA en relación con las campañas políticas. OpenAI prohíbe explícitamente la creación de bots que suplanten a candidatos o gobiernos reales, que tergiversen cómo funciona la votación o que desalienten a las personas a votar. Siguiendo un enfoque similar al Escudo Prompt, OpenAI utiliza sistemas de detección que guían a los usuarios de ChatGPT a un sitio web no partidista llamado CanIVote.org, mantenido por la Asociación Nacional de Secretarios de Estado, para obtener información sobre la logística de votación. Esto asegura que los usuarios de ChatGPT reciban respuestas confiables a sus preguntas. 💬🔎

Aunque algunas plataformas están tomando medidas proactivas para evitar que la tecnología de IA se utilice para engañar o manipular a los votantes, el Congreso de los Estados Unidos aún no ha aprobado una legislación que aborde el papel de la IA en la política. Aunque existe un apoyo bipartidista, la legislación federal se ha enfrentado a retrasos. A nivel estatal, sin embargo, más de un tercio de los estados de EE. UU. han presentado o aprobado proyectos de ley dirigidos a deepfakes en campañas políticas. La ausencia de una legislación integral ha llevado a empresas como Anthropic y OpenAI a implementar sus propias medidas para salvaguardar la integridad de las elecciones. 📜🛡️

Incluso gigantes tecnológicos como Google y Meta (anteriormente Facebook) se han unido a la lucha contra el mal uso de la IA en la política. Google ahora exige revelar de manera prominente los anuncios políticos que utilizan GenAI en sus plataformas, incluidos YouTube y Google Search, especialmente si los anuncios presentan imágenes o sonidos modificados sintéticamente. Meta, por otro lado, ha prohibido que las campañas políticas utilicen herramientas de GenAI en la publicidad en todas sus propiedades. Estas medidas tienen como objetivo fomentar la transparencia y prevenir la difusión de contenido manipulado durante las campañas electorales. 👀🚫

En conclusión, el desarrollo e implementación de tecnologías como el Escudo Prompt por parte de empresas como Anthropic son pasos cruciales en la lucha contra la interferencia electoral y la difusión de desinformación. Proporcionan a los usuarios fuentes autorizadas de información, asegurando que tengan una guía precisa sobre los procesos de votación y los candidatos. Si bien todavía se necesita una legislación integral, tanto a nivel nacional como internacional, los esfuerzos de las empresas de IA para autorregularse y proteger las elecciones son encomiables. Al priorizar la integridad de los procesos democráticos, estas empresas están haciendo contribuciones valiosas que tienen un impacto duradero en nuestra sociedad. 🌟🗽

🔎 Preguntas y Respuestas: Abordando Temas de Interés Adicionales 🔍

P: ¿Puede Prompt Shield detectar desinformación y noticias falsas relacionadas con las elecciones?
R: La función principal de Prompt Shield es redirigir a los usuarios a fuentes autorizadas de información de votación. Si bien ayuda a los usuarios a acceder a recursos precisos y confiables, su papel en la detección de desinformación dentro de las respuestas del chatbot es limitado. Los usuarios deben emplear el pensamiento crítico y la verificación de hechos para evaluar la información que reciben de cualquier fuente.

P: ¿Prompt Shield solo está disponible para usuarios en Estados Unidos?
R: Actualmente, Prompt Shield está específicamente diseñado para usuarios en Estados Unidos del chatbot GenAI, Claude. Sin embargo, a medida que Anthropic perfeccione la tecnología, es probable que amplíen su disponibilidad para usuarios en otros países, según la demanda de información relacionada con las elecciones.

P: ¿Qué impacto a largo plazo podría tener Prompt Shield y tecnologías similares en las elecciones en todo el mundo?
R: Prompt Shield y tecnologías similares ponen de relieve la creciente preocupación con respecto a la interferencia en las elecciones y la difusión de desinformación. Al redirigir a los usuarios a fuentes autorizadas, estas tecnologías empoderan a las personas para tomar decisiones informadas. A largo plazo, podrían contribuir a procesos electorales más transparentes y confiables a nivel mundial.

Referencias

  1. Anthropic: The Well-Funded AI Startup
  2. Alucinación y AI: El desafío y soluciones
  3. OpenAI prohíbe el mal uso de ChatGPT para campañas políticas
  4. Legislación sobre deepfake en Estados Unidos
  5. Medidas de Google contra el mal uso de IA en anuncios políticos

🌐✨ ¿Has encontrado algún chatbot de IA que haya proporcionado información engañosa sobre política o elecciones? ¡Comparte tu experiencia en los comentarios a continuación! Y no olvides compartir este artículo en tu plataforma de redes sociales favorita! 🚀📣