Un vídeo manipulado de Biden es un caso de prueba para las políticas de deepfake de Facebook

Un vídeo de Biden manipulado es un ejemplo para las políticas de deepfake de Facebook

En mayo, apareció un video manipulado del presidente Joe Biden en Facebook. Las imágenes originales mostraban a Biden durante las elecciones intermedias de 2022, colocando una pegatina que decía “voté” en el pecho de su nieta y dándole un beso en la mejilla. La versión manipulada hacía un bucle con las imágenes para que pareciera que tocabas repetidamente a la niña, con una leyenda que lo etiquetaba como “pedófilo”.

Meta mantuvo el video en la plataforma. Hoy, el Consejo de Supervisión de la compañía, un organismo independiente que examina la moderación de contenido de la plataforma, anunció que revisará esa decisión, con el objetivo de presionar a Meta para que aborde cómo manejará los medios manipulados y la desinformación electoral de cara a las elecciones presidenciales de Estados Unidos en 2024 y más de 50 votaciones que se llevarán a cabo en todo el mundo el próximo año.

“Las elecciones son la base de la democracia y es vital que las plataformas estén preparadas para proteger la integridad de ese proceso”, dice Dan Chaison, portavoz del Consejo de Supervisión. “Explorar cómo Meta puede abordar mejor el contenido alterado, incluidos los videos destinados a engañar al público antes de las elecciones, es aún más importante dadas las avances en inteligencia artificial”.

Meta dijo en una publicación de blog que determinó que el video no violaba las políticas de discurso de odio, acoso o medios manipulados de Facebook. Según su política de medios manipulados, Meta eliminará un video si “ha sido editado o sintetizado… de formas que no son evidentes para una persona promedio y engañarían probablemente a una persona promedio para que crea que el sujeto del video dijo palabras que no dijo”. Meta señaló que el video de Biden no utilizó inteligencia artificial o aprendizaje automático para manipular las imágenes.

Los expertos han estado advirtiendo durante meses que las elecciones de 2024 serán más complicadas y peligrosas debido a la inteligencia artificial generativa, que permite crear audio, video e imágenes falsificadas más realistas. Aunque Meta se ha unido a otras empresas tecnológicas comprometiéndose a intentar controlar los daños de la inteligencia artificial generativa, las estrategias más comunes, como poner marcas de agua en el contenido, solo han resultado algo efectivas, en el mejor de los casos. La semana pasada, en Eslovaquia, circuló en Facebook una grabación de audio falsa en la que uno de los principales políticos del país parecía discutir sobre cómo manipular las elecciones. Los creadores pudieron aprovechar una laguna en las políticas de medios manipulados de Meta, que no cubren los audios manipulados.

Aunque el video de Biden en sí no está generado por inteligencia artificial ni manipulado, el Consejo de Supervisión ha solicitado comentarios públicos sobre este caso con miras a la inteligencia artificial y está utilizando el caso como una forma de examinar más profundamente las políticas de Meta en torno a los videos manipulados.

“Creo que sigue siendo el caso de que, si miramos en general lo que se comparte, son medios mal contextualizados y mal editados, por lo que las políticas deben reflejar cómo van a manejar eso”, dice Sam Gregory, director de programas de Witness, una organización sin fines de lucro que ayuda a las personas a utilizar la tecnología para promover los derechos humanos.

El Consejo de Supervisión puede emitir decisiones vinculantes, así como recomendaciones, que Meta puede elegir seguir o no. Ha intentado tomar casos que espera ayuden a dar forma al enfoque de la compañía para el año electoral de 2024, revisando la decisión de Meta de no eliminar un llamado a la violencia en la antesala de las elecciones de Camboya por parte del entonces primer ministro Hun Sen, y un discurso de un general brasileño en la antesala de la insurrección posterior a las elecciones en el país.

Pero Gregory también se preocupa de que aunque el consejo emita decisiones vinculantes sobre cómo Meta debería abordar los medios manipulados, tiene poco poder para dictar cuánto dinero o recursos realmente decide invertir la empresa en el problema, especialmente en elecciones fuera de Estados Unidos. Al igual que muchas otras grandes empresas tecnológicas, Meta ha despedido a miembros del personal de confianza y seguridad que se ocupan de problemas como la desinformación y el discurso de odio. Meta también ha tenido históricamente dificultades para moderar contenido que no está en inglés y en contextos fuera de Estados Unidos.

A diferencia de Google, que ha introducido funciones para ayudar a los usuarios a determinar si una imagen es generada por IA o manipulada, Meta no ha creado ninguna herramienta para los consumidores que les permita a los usuarios o verificadores de hechos comprender mejor el contexto del contenido que pueden estar viendo.

Aunque la Junta de Supervisión puede esperar utilizar el video de Biden para sentar las bases de cómo Meta debería manejar el contenido generado por IA o manipulado por IA, Gregory dice que anticipa que muchas preguntas en torno a los medios manipulados probablemente quedarán sin respuesta.

“Creo que es realmente útil que la Junta de Supervisión haga una evaluación objetiva de cómo están funcionando esas políticas y cómo están funcionando a nivel mundial”, dice Gregory. “No sé si eso vendría de este caso único”.