Threads tendrá sus propios verificadores de hechos para combatir la desinformación

Threads contará con su propio equipo de verificación de hechos para combatir la desinformación

Meta planea agregar verificación de hechos directa para Threads, con el objetivo de abordar la desinformación en la misma aplicación en lugar de hacerlo a través de sus otras plataformas de referencia.

Aunque el propietario de Facebook e Instagram utiliza equipos de verificación de hechos de terceros para desacreditar la desinformación en estos sitios (si tiene éxito con ello es otra cosa), la respuesta de Meta a Twitter/X no cuenta con su propio equipo independiente de verificación de hechos.

“A principios del próximo año, nuestros socios de verificación de hechos de terceros podrán revisar y calificar contenido falso en Threads”, detalló Meta en una actualización. “Actualmente, cuando un verificador de hechos califica un contenido como falso en Facebook o Instagram, extendemos esa calificación de verificación de hechos a contenidos muy similares en Threads, pero los verificadores de hechos no pueden calificar el contenido de Threads por sí solo.”

El jefe de Instagram, Adam Mosseri, también compartió una publicación sobre el programa, aunque no dio muchos detalles más allá de que llegará “el próximo año”.

“Actualmente, coincidimos las calificaciones de verificación de hechos de Facebook o Instagram con Threads, pero nuestro objetivo es que los socios de verificación de hechos tengan la capacidad de revisar y calificar la desinformación en la aplicación”, escribió Mosseri. “Pronto habrá más novedades”.

Meta ha enfrentado críticas durante mucho tiempo por permitir la desinformación (así como el discurso de odio) en sus plataformas, especialmente en relación con la COVID-19 y durante las elecciones presidenciales de EE.UU. en 2016 y 2020. Meta ha revelado sus planes para la publicidad política durante las elecciones globales de 2024, aunque, como escribe Meera Navlakha de ENBLE, “La publicidad política en las plataformas de Meta ha sido y sigue siendo un tema controvertido. Durante elecciones anteriores, las acusaciones de desinformación rampante — y un claro fracaso en bloquear dicha desinformación — han manchado la reputación autodeclarada de Meta de priorizar la protección de las elecciones en línea”.

En 2021, Facebook comenzó a marcar páginas que difunden constantemente noticias falsas, y prohibió oficialmente todas las cuentas de Instagram, páginas de Facebook y grupos relacionados con la teoría de conspiración QAnon. Después de la invasión de Rusia a Ucrania, Meta estableció un Centro de Operaciones Especiales para combatir la desinformación y eliminar el discurso de odio y el contenido que incita a la violencia. Sin embargo, estos mismos tipos de contenido han seguído aumentando en Facebook e Instagram durante la guerra en curso entre Israel y Hamás — incluso la UE ha intervenido para investigar. Meta ha tomado medidas en algunos de estos casos.

Un factor clave aquí es la conexión de Threads con las noticias. Aunque Threads está tomando medidas para recopilar de manera más intuitiva los temas de tendencia, Meta no realmente impulsa la plataforma como un espacio orientado a las noticias y los asuntos actuales. Mosseri escribió en julio: “La política y las noticias duras inevitablemente aparecerán en Threads, como lo han hecho en Instagram hasta cierto punto, pero no haremos nada para fomentar esos temas”.

Es importante destacar que se han bloqueado ciertas palabras en la búsqueda de Threads, según informa The Washington Post. Palabras como “coronavirus”, “vacunas”, “vacunación”, “sexo”, “porno”, “desnudo” y “violencia” están bloqueadas intencionalmente. Threads aún no tiene sus propias pautas comunitarias; en su lugar, la compañía dice que Threads es “específicamente parte de Instagram, por lo que se aplican los Términos de uso de Instagram y las Pautas de la comunidad de Instagram”.

Sin embargo, Threads ya tiene un problema de discursos de odio, según informó Chase DiBenedetto de ENBLE en julio. En ese momento, un portavoz de Meta le dijo a ENBLE y a Media Matters for America en un comunicado: “Nuestras herramientas líderes en la industria para hacer cumplir la integridad y la revisión humana se aplican a Threads. Al igual que todas nuestras aplicaciones, se aplican políticas contra los discursos de odio. Además, coincidimos las clasificaciones de desinformación de verificadores de hechos independientes con el contenido de nuestras otras aplicaciones, incluido Threads. Estamos considerando formas adicionales de abordar la desinformación en futuras actualizaciones”.

Este parece ser esa actualización que se lanzará “a principios del próximo año”.