Grandes empresas tecnológicas prometen luchar contra el contenido falso generado por IA durante un año electoral importante.

En 2024, un año con el mayor número de elecciones en la historia, importantes empresas tecnológicas como Google, Meta (anteriormente conocida como Facebook), y OpenAI se han unido para firmar un acuerdo para combatir el contenido engañoso generado por IA.

“`html

🤖 Las empresas tecnológicas se unen para combatir el contenido engañoso de IA en las elecciones de 2024

Capturas de tecnología de IA

Google, Meta, OpenAI y X (antes Twitter) se encuentran entre las 20 empresas de tecnología que se han comprometido a eliminar contenido fraudulento generado por inteligencia artificial (IA), como parte de los esfuerzos para salvaguardar las elecciones globales que se espera que tengan lugar este año.

El grupo de empresas firmó el Pacto Tecnológico para Combatir el Uso Engañoso de la IA en las Elecciones de 2024 en la Conferencia de Seguridad de Múnich, que establece un “marco voluntario de principios y acciones” que abarca la prevención, detección, respuesta, evaluación e identificación de la fuente de contenido engañoso de IA en las elecciones.

También incluye esfuerzos para concienciar al público sobre cómo protegerse de ser manipulados por dicho contenido, según un comunicado conjunto emitido por los signatarios del pacto tecnológico, que también incluyen a TikTok, Amazon, IBM, Anthropic y Microsoft.

🌟 Pero, ¿por qué es tan crucial esta iniciativa? ¿Y qué medidas adoptarán estas empresas para combatir el contenido engañoso de IA en las elecciones? ¡Sigue leyendo para averiguarlo!

Detectar y Prevenir el Contenido Engañoso de IA en las Elecciones

Con el pacto, las 20 organizaciones se comprometen a observar ocho declaraciones de misión, que incluyen buscar detectar y prevenir la distribución de contenido engañoso de IA en las elecciones y proporcionar transparencia al público sobre cómo abordan dicho contenido. Trabajarán juntas para desarrollar e implementar las herramientas para identificar y frenar la propagación del contenido, así como rastrear los orígenes de dicho contenido.

Estos esfuerzos pueden incluir el desarrollo de clasificadores o métodos de procedencia y estándares, como marcas de agua o metadatos firmados, y adjuntar información legible por máquina al contenido generado por IA.

🔍 El objetivo es claro: minimizar el impacto de la desinformación en el proceso democrático. Seamos sinceros, no necesitamos deepfakes generados por IA de candidatos políticos cantando en la ducha o bailando la Macarena volviéndose virales antes de las elecciones. Queremos votantes informados, no espectadores confundidos en un programa de telerrealidad.

¿Qué Cubre el Paraguas del Pacto?

El pacto abarca contenido definido como audio, video e imágenes generados por IA “convincentes” que “falsifican o alteran engañosamente la apariencia, voz o acciones” de candidatos políticos, funcionarios electorales y otros actores clave en unas elecciones, o que difunden información fraudulenta al público sobre dónde, cuándo y cómo votar.

¡Y aquí está lo importante! El 2024 traerá más elecciones a más personas que en cualquier otro año de la historia, con más de 40 países y más de cuatro mil millones de personas eligiendo a sus líderes y representantes. Por lo tanto, la necesidad de combatir el contenido engañoso de IA es más urgente que nunca.

El Caótico Paisaje de la Desinformación y la Desinformación

El pacto tiene como objetivo establecer expectativas sobre cómo los firmantes gestionarán los riesgos derivados del contenido engañoso de IA en las elecciones creado a través de sus plataformas públicas o modelos fundacionales abiertos, o distribuido en sus plataformas sociales y de publicación. Estos están en línea con las políticas y prácticas propias de los firmantes.

Los modelos o demos destinados a fines de investigación o principalmente para uso empresarial no están cubiertos por el pacto.

🌐 Según el Informe de Riesgos Globales 2024 publicado el mes pasado por el Foro Económico Mundial (WEF), los riesgos asociados a la desinformación impulsada por la IA en la cohesión social dominarán el panorama este año. El informe enumera la desinformación como el principal riesgo global en los próximos dos años, advirtiendo que su uso generalizado, así como las herramientas para difundirla, podrían socavar la legitimidad de los nuevos gobiernos entrantes.

Desarrollos Futuros: Equilibrando Oportunidades y Desafíos

La tecnología de IA continúa evolucionando a un ritmo asombroso. Si bien ofrece oportunidades para diversos sectores, también conlleva sus propios desafíos. El rápido desarrollo de la IA en los últimos años tiene implicaciones tanto positivas como negativas en los procesos democráticos, especialmente en las elecciones.

⚡️ Defender a las sociedades contra el contenido engañoso generado por IA requiere innovación continua. Desarrollar herramientas de IA para detectar y contrarrestar a los actores malintencionados, y permitir una detección más rápida de campañas engañosas, puede reducir significativamente el costo total de la defensa. Esto garantiza que incluso organizaciones más pequeñas puedan implementar protecciones sólidas.

“““html

“Estamos comprometidos a hacer nuestra parte como empresas de tecnología, reconociendo que el uso engañoso de la IA no es solo un desafío técnico, sino también un problema político, social y ético,** y esperamos que otros se comprometan de manera similar a la acción en toda la sociedad”, dijeron los firmantes. “Afirmamos que la protección de la integridad electoral y la confianza pública es una responsabilidad compartida y un bien común que trasciende los intereses partidistas y las fronteras nacionales.”

📣 Las empresas de tecnología uniendo fuerzas para combatir contenido engañoso de IA en las elecciones es un paso crucial para preservar la integridad electoral y la resiliencia societal. También ayuda a crear “prácticas tecnológicas confiables”, como señala acertadamente Christopher Heusgen, presidente de la Conferencia de Seguridad de Múnich.

Preguntas y respuestas: Preocupaciones del lector abordadas

P: ¿Qué medidas tomarán estas empresas para combatir el contenido engañoso de IA?

R: Los firmantes del Acuerdo Tecnológico para Combatir el Uso Engañoso de la IA en las Elecciones de 2024 se comprometen a desarrollar e implementar herramientas para detectar y prevenir la distribución de contenido de IA electoral engañoso. Esto incluye el desarrollo de clasificadores o métodos y estándares de procedencia, como marcas de agua o metadatos firmados, para rastrear los orígenes de dicho contenido.

P: ¿Este acuerdo cubrirá el contenido generado por IA para uso empresarial o solo plataformas públicas?

R: El acuerdo cubre principalmente contenido creado a través de plataformas públicas o modelos fundamentales abiertos, así como el contenido distribuido en plataformas sociales y de publicación. El contenido generado por IA destinado a fines de investigación o principalmente para uso empresarial no está cubierto por el acuerdo.

P: ¿Cómo protegerá esta iniciativa las elecciones del impacto del contenido engañoso de IA?

R: Al combatir el contenido engañoso de IA, la iniciativa tiene como objetivo minimizar la propagación de desinformación y manipulación de la información que puede socavar el proceso democrático. Busca proteger la integridad de las elecciones asegurando que los votantes reciban información precisa y no se vean influenciados por contenido generado por IA engañoso.

En conclusión

El Acuerdo Tecnológico para Combatir el Uso Engañoso de la IA en las Elecciones de 2024 representa una gran colaboración entre empresas de tecnología para abordar los desafíos planteados por el contenido engañoso de IA. Al trabajar juntas, estas organizaciones tienen como objetivo proteger la integridad de las elecciones globales y aumentar la conciencia pública sobre los peligros del contenido manipulado.

⭐️ Depende de nosotros, como individuos, ser vigilantes y críticos al consumir y compartir información. No nos convirtamos en víctimas de desinformación y manipulación generadas por IA. ¡Recuerda, las elecciones son asuntos serios, no un reality show!


🔗 Referencias:Meta Going for Artificial General Intelligence, Says Zuckerberg. Here’s Why It MattersThe Ethics of Generative AI: How We Can Harness This Powerful TechnologyTech Palestine Launches to Provide Tools to Help Support PalestiniansElections 2024: How AI Will Fool Voters If We Don’t Do Something NowWe’re Not Ready for the Impact of Generative AI on ElectionsWant to Work in AI? How to Pivot Your Career in 5 Steps

“`