El Lado Oscuro de la Tecnología de IA Generativa Prejuicios, Imágenes Falsas y Desinformación

Mantente al día en el cambiante panorama de la inteligencia artificial nuestro resumen semanal de los últimos avances.

“`html

Prepárate para más imágenes falsas de IA a medida que continúan las batallas entre OpenAI-Musk y OpenAI-NYT.

Introducción

La tecnología de IA generativa ha revolucionado varias industrias al permitir la creación de texto, imágenes, videos e incluso código de programación con capacidades de lenguaje natural. Esto significa que cualquiera puede interactuar con chatbots de IA sin necesidad de tener habilidades de programación o ingeniería. Sin embargo, hay un lado oscuro en esta tecnología que incluye sesgos, alucinaciones y la creación de imágenes y videos falsos. En este artículo, exploraremos algunos ejemplos recientes de las consecuencias negativas de la IA generativa y discutiremos las preocupaciones que plantean.

La Ofensa de Imágenes Ofensivas

Apenas una semana después de que el generador de texto a imagen Gemini de Google recibiera críticas por entregar imágenes ofensivas y sesgadas, el generador de IA para diseñadores Copilot de Microsoft enfrentó críticas similares. Un ingeniero de Microsoft, Shane Jones, expresó su preocupación por las imágenes perturbadoras y violentas creadas por la herramienta de IA, que incluían demonios, monstruos, imágenes sexualizadas de mujeres y consumo de alcohol y drogas en menores de edad. Estas imágenes claramente violaron los principios de IA responsable de Microsoft. A pesar de los esfuerzos de Jones por abordar los problemas, Microsoft ignoró sus hallazgos. Esto plantea cuestiones sobre las prácticas éticas seguidas por las compañías de IA y el daño potencial causado por el mal uso de la tecnología de IA generativa.

Imágenes Falsas y Desinformación

En otro caso, partidarios del ex presidente Donald Trump crearon fotos falsas que representaban al entonces candidato presidencial rodeado de votantes negros falsos. La intención detrás de estas imágenes fabricadas era engañar a los afroamericanos para que votaran por el Partido Republicano. Esta manipulación de imágenes destaca el problema más amplio de la desinformación y el potencial de las imágenes generadas por IA para desempeñar un papel significativo en la difusión de mentiras durante las elecciones. Según un informe del Centro para Contrarrestar el Odio Digital, las herramientas de imágenes de IA contribuyen a la desinformación electoral en el 41% de los casos, incluida la creación de imágenes que respaldan afirmaciones falsas sobre candidatos o fraude electoral. Esto plantea preocupaciones sobre la confiabilidad del contenido creado utilizando la tecnología de IA generativa.

Biden Llama a Prohibir las Impersonaciones de Voz de IA

En su discurso sobre el estado de la Unión, el presidente Biden llamó a prohibir las impersonaciones de voz de IA y a legislar para aprovechar la promesa de la IA mientras se protege a la sociedad de sus peligros potenciales. Los estafadores habían utilizado previamente llamadas automáticas generadas por IA con la voz de Biden para engañar a los votantes demócratas durante las primarias presidenciales de Nuevo Hampshire. Si bien existen preocupaciones sobre los peligros de la impersonación de voz, también hay casos de uso potencial que demuestran los aspectos positivos de las voces generadas por IA, como la aplicación Calm, que ofrece una narración generada por IA del actor Jimmy Stewart para una historia antes de dormir. Encontrar el equilibrio adecuado entre regular las aplicaciones de IA dañinas y permitir las beneficiosas es crucial.

El Chatbot “Humano” de Anthropic y la Competencia

Anthropic, una compañía de IA con sede en San Francisco, lanzó Claude 3, un rival de ChatGPT de OpenAI y Gemini de Google. Anthropic afirma que sus modelos de IA ahora exhiben una “comprensión humana” y han mejorado la precisión y comprensión contextual. Si bien estos chatbots no son una inteligencia artificial general verdadera y carecen de comprensión completa como los humanos, las actualizaciones a Claude demuestran el ritmo rápido de innovación en el campo de la IA generativa. OpenAI anunció recientemente su colaboración con varias compañías tecnológicas para construir, desplegar y utilizar IA de manera responsable, a pesar de enfrentar una demanda de Elon Musk, uno de los primeros inversionistas de OpenAI. La competencia y controversia en torno a la IA generativa muestran que todavía hay mucho por explorar y resolver en este campo en constante evolución.

La Necesidad de Transparencia en la Evaluación de IA

Un grupo de más de 100 investigadores de IA ha firmado una carta abierta destacando la importancia de la evaluación independiente de los sistemas de IA generativa. Argumentan que las compañías de IA deberían permitir que los investigadores accedan a sus sistemas para realizar controles de seguridad antes de lanzarlos al público. Actualmente, las restricciones a la investigación independiente crean un efecto inhibidor, ya que los auditores temen ser prohibidos o enfrentar acciones legales por probar modelos de IA sin el permiso de las compañías. Los investigadores enfatizan la necesidad de transparencia, responsabilidad y evitar obstaculizar la investigación, citando ejemplos donde las compañías de IA han excluido a auditores externos de acceder a sus sistemas. Encontrar un equilibrio entre la seguridad y fomentar la investigación independiente en el campo de la IA generativa sigue siendo un desafío.

Las demandas por infracción de derechos de autor han plagado el espacio de la IA generativa, con creadores de contenido acusando a compañías como OpenAI y Microsoft de utilizar sus obras sin permiso o compensación. The New York Times presentó una demanda contra OpenAI y Microsoft, alegando que estas compañías usaron ilegalmente millones de sus historias para entrenar sus modelos de lenguaje, compitiendo con las compañías de medios como fuente confiable de información. Tanto Microsoft como OpenAI han presentado argumentos contra la demanda, afirmando que la doctrina de uso justo protege su uso de material con derechos de autor. Esta batalla legal en curso destaca la importancia de determinar los límites del uso de datos en el entrenamiento de sistemas de IA generativa.

“““html

Conclusión

La tecnología de IA generativa tiene un inmenso potencial para transformar diversos campos, pero también conlleva riesgos y preocupaciones éticas. Eventos recientes han resaltado sesgos, la creación de imágenes/videos falsos, la difusión de desinformación y batallas legales sobre los derechos de propiedad intelectual. Lograr un equilibrio entre aprovechar el poder de la IA generativa y mitigar sus posibles riesgos es crucial. Asegurar transparencia, responsabilidad y uso responsable de la IA será vital mientras navegamos por avances adicionales en este campo en constante evolución.


Sección de Preguntas y Respuestas

P: ¿Cuáles son las posibles consecuencias de los sesgos en la IA generativa? Los sesgos en la IA generativa pueden perpetuar estereotipos injustos, reforzar la discriminación y agudizar divisiones en la sociedad. Cuando los sistemas de IA se entrenan con datos sesgados o no representativos, pueden generar contenido que refleje esos sesgos. Además, los sesgos en los sistemas de IA pueden llevar a procesos de toma de decisiones discriminatorios en diversos ámbitos como contratación o aprobaciones de préstamos. Abordar y mitigar los sesgos en la IA generativa es esencial para crear una tecnología justa y equitativa.

P: ¿Cómo se puede utilizar positivamente la tecnología de IA generativa? La tecnología de IA generativa tiene aplicaciones positivas en áreas como creación de contenido, narración, asistentes virtuales y personalización. Por ejemplo, el contenido generado por IA puede ayudar a autores, cineastas y artistas a generar nuevas ideas e inspiraciones. Los asistentes virtuales impulsados por IA generativa pueden ofrecer experiencias personalizadas, haciendo las interacciones más eficientes y adaptadas a las necesidades individuales. Es importante explorar el potencial positivo de la IA generativa siendo conscientes de consideraciones éticas y un uso responsable.

P: ¿Qué medidas se pueden tomar para abordar la difusión de desinformación a través de contenido generado por IA generativa? Abordar la desinformación requiere un enfoque multifacético que involucre medidas tecnológicas, regulatorias y educativas. Los avances tecnológicos pueden centrarse en crear sistemas de IA capaces de detectar y señalar contenido potencialmente falso o engañoso generado por IA generativa. Se pueden implementar marcos regulatorios para garantizar transparencia, responsabilidad y un uso responsable de la tecnología de IA generativa. Educando a los usuarios sobre los riesgos y limitaciones del contenido generado por IA generativa, también se les capacita para evaluar críticamente y verificar la información.


Referencias

  1. AI Chatbot Goes Rogue, Generating Offensive Content
  2. Gemini Flubs by Google and Musk Sues OpenAI
  3. NSA Buying Americans’ Internet Browsing Records
  4. AI Principles and Responsibility
  5. Fake Image Factories: Countering Disinformation with AI

“`