La Junta de Supervisión de Meta ampliará su alcance a los hilos para la moderación de contenido.

La Junta de Supervisión reveló hoy que ampliará su jurisdicción para incluir los hilos, además de Facebook e Instagram, para examinar las decisiones de Meta sobre la moderación de contenido.

“`html

La Junta de Supervisión de Meta ahora incluye Threads.

📢 ¡Gran noticia en el ámbito de la moderación de contenido! El grupo asesor externo de Meta, la Junta de Supervisión, acaba de anunciar que expandirá su alcance para incluir Threads, junto con Facebook e Instagram. Esto significa que si no estás satisfecho con las decisiones de Meta sobre contenido o problemas de eliminación de cuentas en Threads, ahora puedes apelar a la Junta de Supervisión. 🆘

“La expansión de la Junta a Threads se basa en nuestra base de ayudar a Meta a resolver las preguntas más difíciles en torno a la moderación de contenido. Tener responsabilidad independiente desde el principio para una nueva aplicación como Threads es de vital importancia”, afirmó Helle Thorning-Schmidt, copresidenta de la Junta de Supervisión. 📝

Pero espera un segundo, profundicemos en la historia aquí. En 2018, Mark Zuckerberg mencionó por primera vez la idea de una junta de supervisión independiente. En enero de 2020, Facebook propuso los estatutos de la junta y anunció el primer conjunto de miembros en mayo. Y en octubre de 2020, la junta inició su misión revisando casos. Avanzando rápidamente a 2021, el cuerpo observador amplió su alcance para revisar la decisión de Meta de mantener cierto contenido en línea. 🌍

Ahora, no olvidemos algunos de los casos de alto perfil que esta junta ha abordado. El que destaca principalmente es definitivamente la crítica que la junta dirigió a Facebook por prohibir “indefinidamente” al expresidente Donald Trump. Si bien la junta estuvo de acuerdo en que Trump violó las reglas de la plataforma, cuestionó la falta de especificaciones para una prohibición indefinida. 🚫

Bien, ahora cambiemos nuestro enfoque a Threads. Desde su lanzamiento en julio del año pasado, los usuarios han expresado preocupaciones sobre sus prácticas de moderación. El Washington Post informó en octubre que la plataforma estaba bloqueando términos como “Covid” y “vacunas”, así como palabras como “gore”, “desnudo”, “sexo” y “porno”. Adam Mosseri, jefe de Instagram, mencionó que esta prohibición era temporal, pero sorprendentemente, sigue en vigor. 😱

Threads implementó recientemente un programa de verificación de hechos, pero no nos adelantemos en nuestra emoción. Las etiquetas que los usuarios ven en algunas publicaciones en realidad son porque coinciden con verificaciones de hechos existentes en otras propiedades de Meta. Threads tenía la intención de tener un programa de verificación de hechos separado, pero aún está en proceso. 🤷‍♂️

Mosseri ha dejado claro que Threads no recomendará contenido político ni “amplificará noticias” en la plataforma. Sin embargo, la función de temas populares recién lanzada podría mostrar contenido político, siempre y cuando cumpla con la política de la empresa. 🗞

Catalina Botero Marino, copresidenta de la Junta de Supervisión, destacó la creciente dificultad de la moderación de contenido debido a conflictos en todo el mundo, elecciones próximas y avances en la tecnología de IA. Con todos estos desafíos, la junta está en una misión para encontrar soluciones que protejan la libertad de expresión mientras minimizan el daño. Se esfuerza por crear estándares que mejoren la experiencia en línea para los usuarios de Threads. 👩‍⚖️

Ahora, hablemos sobre el proceso para apelar las decisiones de Meta sobre Threads a través de la Junta de Supervisión. El usuario debe apelar primero a Meta, y si aún no está satisfecho con el veredicto en 15 días, puede apelar luego a la junta. La junta revisará la apelación en un plazo de 90 días, a partir de la fecha en que se presentó. Aunque la junta ha recibido críticas en el pasado por la lentitud de sus respuestas, no ha habido cambios en el proceso para Threads en este momento. 📅

Vale la pena señalar que la junta puede emitir recomendaciones y decisiones. Aunque las recomendaciones no son vinculantes, Meta está obligada a seguir las decisiones de la junta. ¡Así que hay un poder real ahí! 💪

La expansión de la Junta de Supervisión de Meta para incluir Threads es un paso significativo hacia garantizar la responsabilidad y transparencia en la moderación de contenido. Coloca la supervisión independiente donde más se necesita y proporciona una plataforma para que los usuarios expresen sus preocupaciones. Veamos cómo se desarrolla este cambio y esperemos una mejor experiencia en línea para los usuarios de Threads. 🙏

Rincón de Preguntas y Respuestas:

P: ¿Cómo funciona el proceso de Apelaciones con Threads y la Junta de Supervisión?

R: Para apelar las decisiones de Meta sobre Threads, los usuarios deben apelar directamente a Meta. Si aún no están satisfechos con el resultado, tienen 15 días para presentar una apelación a la Junta de Supervisión. La junta luego revisará la apelación, junto con la respuesta de Meta, en un plazo de 90 días. Es crucial seguir este proceso para tener la oportunidad de que sus preocupaciones sean abordadas por un organismo independiente.

“““html

P: ¿Puede Meta ignorar las recomendaciones hechas por la Junta de Supervisión?

R: Si bien las recomendaciones emitidas por la Junta de Supervisión no son legalmente vinculantes, Meta está obligada a considerar y responder a ellas. El propósito de la junta es proporcionar orientación independiente sobre decisiones de moderación de contenido, y aunque Meta conserva la última palabra, las recomendaciones tienen un peso significativo.

P: ¿Hay planes para que la Junta de Supervisión amplíe su alcance a otras aplicaciones o plataformas?

R: La Junta de Supervisión ya ha ampliado su alcance para incluir Threads, Facebook e Instagram. Sin embargo, no hay información oficial sobre futuros planes de expansión. A medida que el panorama digital evoluciona, no sería sorprendente si la junta considera ampliar su alcance para abordar problemas de moderación de contenido en otras plataformas.

P: ¿Cómo funciona el programa de verificación de hechos en Threads?

R: En la actualidad, Threads se basa en verificaciones de hechos de otras propiedades de Meta para etiquetar publicaciones. La intención era establecer un programa de verificación de hechos separado específicamente para Threads, pero los detalles y los verificadores participantes aún no se han finalizado. Si bien la implementación de la verificación de hechos es un paso en la dirección correcta, la plataforma todavía está trabajando en implementar completamente su programa de verificación de hechos independiente.

Perspectivas futuras:

La expansión de la Junta de Supervisión de Meta para incluir Threads subraya la creciente importancia de la moderación de contenido transparente en las plataformas de redes sociales. A medida que los conflictos, elecciones y avances en la tecnología de IA continúan dando forma al espacio digital, encontrar soluciones efectivas para la moderación de contenido se vuelve cada vez más crucial.

Este movimiento podría allanar el camino para que otras plataformas y aplicaciones adopten juntas de supervisión similares, fortaleciendo la responsabilidad y promoviendo experiencias en línea más justas. Equilibrar la libertad de expresión con la necesidad de reducir el daño seguirá siendo un desafío, pero con una colaboración continua y un compromiso con la innovación, dichas juntas pueden ayudar a dar forma a un mundo digital más responsable.

Referencias:

  1. Morning After: Meta Oversight Board Says Manipulated Biden Video Can Stay on Facebook
  2. SpaceX wrongly fired eight activist employees, US labor board alleges
  3. Recent PC cases that make us excited for what’s next (Digital Trends)
  4. Meta to Restrict Teen Instagram and Facebook Accounts from Seeing Certain Content
  5. Federal Judge Rejects Comcast Claim that California’s Content Moderation Law Violates Free Speech (TechCrunch)

“`