¿Crees que puedes detectar una noticia falsa generada por inteligencia artificial? Toma este cuestionario para descubrirlo.

¿Piensas que puedes identificar una noticia falsa creada por inteligencia artificial? ¡Realiza este cuestionario para averiguarlo!

mujer preocupada usando una laptop

Te encuentras con una noticia en Internet con el titular “Avance revolucionario afirma que la IA ahora puede predecir con precisión el clima con 2 meses de anticipación”. Suena intrigante. Pero ¿es cierto? Mmm, no necesariamente.

Descifrar qué información en línea es real versus falsa siempre ha sido un desafío. Pero la IA ha convertido esto en una tarea aún más complicada. Una encuesta reciente realizada por el proveedor de ciberseguridad Netskope encontró que muchas personas no podían distinguir entre noticias reales y aquellas creadas por IA.

También: 6 herramientas de IA para potenciar tu trabajo y vida diaria

Como prueba, Netskope mostró a 1,000 personas en Estados Unidos y 500 en el Reino Unido una noticia falsa generada por IA junto a una noticia real. El 84% de los encuestados en el Reino Unido afirmaron que eran expertos en identificar una noticia falsa, sin embargo, la mitad de ellos eligieron la noticia falsa como real. Y en Estados Unidos, el 88% se sentía seguro de poder detectar una noticia falsa, pero el 44% pensó que la historia generada por IA era legítima.

Para ver cómo te iría al identificar una noticia falsa generada por IA versus una real, Netskope te invita a realizar su prueba de noticias falsas. Aquí se te presentan 12 historias diferentes y se te desafía a adivinar si crees que cada una es falsa o legítima.

Las personas encuestadas por Netskope dijeron que utilizan las redes sociales y están interesadas en las noticias. Al preguntarles cuál es el servicio más confiable para noticias, la mayoría mencionó a los periódicos y tabloides. Pero las plataformas de video como TikTok y Snapchat ocuparon el segundo lugar.

Como parte de su investigación, Netskope también examinó las noticias y fotos falsas más extendidas de 2023 en función de las visualizaciones en redes sociales, el compromiso y otros factores para determinar su impacto. El ítem más popular fue una imagen del Papa Francisco vistiendo un abrigo de plumas blanco de gran tamaño. Aunque la foto era falsa, acumuló más de 20 millones de visualizaciones en redes sociales y fue destacada por más de 300 publicaciones de medios.

Otro artículo generado por IA que ganó popularidad fue una imagen de Donald Trump siendo arrestado en Washington DC en marzo pasado. Aunque Trump ha tenido problemas con la ley en varias ocasiones, esta imagen fue creada usando el generador de imágenes de IA Midjourney. Aunque era falsa, la foto obtuvo más de 10 millones de visualizaciones en Twitter (ahora X) y fue cubierta por 671 publicaciones de noticias.

También: Cómo lograr un intercambio de rostros perfecto con Midjourney AI

Estas fotos falsas muestran lo fácil que puede ser engañar a las personas con imágenes engañosas. Utilizando herramientas como Midjourney y DALL-E, prácticamente cualquier persona puede crear una imagen tan realista que no solo pueda engañar a la persona promedio, sino también a los editores de noticias y a los profesionales que normalmente serían más perspicaces.

Y ahora más herramientas de IA son capaces de generar videos falsos. Algunas de las falsificaciones destacadas por Netskope para 2023 incluyeron una en la que Hillary Clinton respaldaba al republicano Ron DeSantis para presidente y otra en la que Elon Musk promocionaba los beneficios de comer un comestible de cannabis.

Una vez que una noticia falsa o una foto se ha promovido en línea, identificarla como falsa puede llevar tiempo. En promedio, la mayoría de estos elementos tardaron alrededor de seis días en ser detectados y refutados. Sin embargo, un video editado por IA de Bill Gates terminando una entrevista con la periodista de ABC News Sarah Ferguson por preguntas sobre su participación en la distribución de la vacuna COVID-19 tomó un asombroso tiempo de 15 días para ser etiquetado como falso.

También: Elecciones 2024: Cómo la IA engañará a los votantes si no hacemos algo ahora

Para ayudar a las personas a detectar mejor lo real de lo falso, Netskope ofrece los siguientes consejos y trucos:

Para noticias

  • Trata de encontrar la fuente original de la historia. Si ves una historia que hace afirmaciones inusuales o extravagantes, verifica la fuente. Es posible que puedas descubrir dónde se originó escaneando las redes sociales. Si es una imagen, realiza una búsqueda inversa de imágenes utilizando Búsqueda inversa de imágenes de Google, TinEye, o Yandex.

Para historias basadas en imágenes

  • Amplía la imagen para buscar errores. Ampliar la imagen puede revelar detalles inexactos o de mala calidad, lo que puede indicar la participación de la IA.
  • Verifica las proporciones de la imagen. Las imágenes generadas por IA a menudo tienen errores con las proporciones de manos, dedos, dientes, orejas, gafas y otras partes del cuerpo y objetos.
  • Escudriña el fondo. En imágenes falsas o alteradas, el fondo a menudo está distorsionado, repetido o carece de detalles.
  • Busca imperfecciones. En las imágenes de IA, las características que normalmente serían detalladas o incluso ásperas a menudo son suaves y perfectas. La piel, el cabello, los dientes y los rostros a menudo lucen demasiado impecables para ser reales.
  • Escanea los detalles. Las inconsistencias en las imágenes a menudo pueden indicar falsificaciones de IA. Tal vez el color de los ojos de una persona no coincida en diferentes imágenes o el patrón cambie de una imagen a otra.

Para historias basadas en videos

  • Verifica el tamaño del video. Los videos que son más pequeños y de menor resolución de lo que deberían ser a veces son un indicio de generación por IA.
  • Observa los subtítulos. Con videos falsos, los subtítulos a menudo se posicionan para cubrir los rostros, lo que dificulta ver que el audio no coincide con los movimientos de los labios.
  • Verifica las formas de los labios desalineadas. Las formas de los labios desalineadas son otra señal de manipulación por IA, especialmente si la zona montada es visible cerca del centro de las bocas.