Los problemas de Twitch con la moderación de contenido en su plataforma de transmisión en vivo.

Inquietantes hallazgos de la investigación de Bloomberg revelan desafíos para Twitch en la moderación de su plataforma de transmisión en vivo, especialmente en su función de clips. El análisis de 1,100 videos muestra que 83 contienen contenido sexualizado que involucra a menores.

Los problemas de Twitch con la moderación de contenido en su plataforma de transmisión en vivo

📷 Fuente de la imagen

Twitch, la popular plataforma de transmisión en vivo, enfrenta desafíos significativos en lo que respecta a la moderación de contenido, particularmente su función de Clips, que permite a los usuarios guardar videos cortos. Un reciente informe de investigación de Bloomberg ha arrojado luz sobre este inquietante problema, revelando al menos 83 clips con contenido sexualizado que involucra a niños de los 1,100 clips analizados. 🤯

Twitch ha tomado medidas al eliminar los videos después de recibir una alerta, y la compañía afirma haber invertido considerablemente en herramientas de cumplimiento y medidas preventivas. Sin embargo, estas instancias ejemplifican el problema con la naturaleza permanente de la función de Clips en una plataforma que es, por lo demás, transitoria. 🎥

Profundicemos en este problema y exploremos las implicaciones y desafíos a los que se enfrenta Twitch.

El lado oscuro de los clips de Twitch

Un incidente destacado por Bloomberg cuenta la inquietante historia de un niño de 12 años que inocentemente quería compartir sus actividades de comer sándwiches y tocar el cuerno francés en Twitch. Desafortunadamente, cumplir solicitudes de los espectadores tomó un giro oscuro, lo que resultó en que el niño se expusiera a sí mismo. Si bien el incidente pudo haber terminado en un instante, la función de grabación de Clips permitió que un espectador, quien supuestamente seguía numerosas cuentas de niños, conservara este inquietante momento. El clip recibió más de 130 vistas antes de ser reportado y eliminado por Twitch. 😱

Los Clips fueron introducidos en 2016 como una forma de capturar momentos efímeros en la plataforma, grabando 25 segundos antes y cinco segundos después de presionar el botón de grabar. Si bien esta función tenía la intención de mejorar la experiencia del usuario, de manera inadvertida proporcionó a los depredadores los medios para guardar y distribuir contenido problemático en otros lugares. El plan de Twitch de expandir los Clips este año, con el objetivo de crear una experiencia similar a TikTok en la plataforma, plantea preocupaciones sobre la moderación de dicho contenido en el futuro. 📲

La realidad de los videos explotadores

El Centro Canadiense de Protección Infantil revisó los 83 videos explotadores mencionados en el informe de Bloomberg. Sorprendentemente, encontraron que 34 de estos videos mostraban a usuarios jóvenes exponiendo sus genitales en la cámara. La mayoría de las víctimas eran niños de entre cinco y 12 años. Además, 49 clips incluían contenido sexualizado con menores, ya sea exponiendo partes del cuerpo o siendo objeto de intentos de manipulación. Los videos más graves fueron vistos 2,700 veces, mientras que el resto obtuvo un total de 7,300 vistas. Estas cifras son realmente preocupantes. 😢

🎥 Fuente del video

La respuesta de Twitch al problema

“El daño a los jóvenes, en cualquier lugar en línea, es inaceptable y tomamos este problema extremadamente en serio”, dijo un portavoz de Twitch en respuesta a la consulta de ENBLE sobre el problema. En un intento de combatir el material de abuso sexual infantil (CSAM, por sus siglas en inglés), Twitch afirma haber desarrollado nuevos modelos para detectar posibles comportamientos de manipulación y está actualizando sus herramientas existentes para identificar y eliminar mejor a los usuarios prohibidos que intentan crear nuevas cuentas relacionadas con problemas de seguridad de los jóvenes. 💪

Twitch también ha aumentado la aplicación de las transmisiones en vivo, la raíz de los Clips problemáticos. Al desactivar las transmisiones en vivo que contienen contenido dañino y suspender los canales asociados, Twitch tiene como objetivo prevenir la creación y difusión de clips dañinos desde la fuente. Además, la compañía asegura que los clips eliminados y desactivados que violan sus pautas comunitarias no son accesibles a través de dominios públicos ni enlaces directos. Estas acciones demuestran el compromiso de Twitch de abordar estos desafíos de frente. 👏

Los desafíos de moderación que enfrenta Twitch

El informe de Bloomberg pone de manifiesto que los Clips han sido una de las secciones menos moderadas en Twitch. Además, la reducción de personal en el equipo interno de confianza y seguridad de la empresa en abril de 2023, como parte de un año lleno de despidos en la industria tecnológica, ha aumentado su dependencia de socios externos para combatir contenido de CSAM. La plataforma única de Twitch, centrada en las transmisiones en vivo, plantea un desafío de moderación más complicado en comparación con sitios de video más tradicionales como YouTube o Instagram. La naturaleza de transmisión en vivo de Twitch significa que el contenido que se transmite siempre es nuevo y no es fácilmente comparable con archivos problemáticos conocidos. Esto hace que el filtrado y la identificación sean más complejos. 🕵️‍♂️

El futuro de la moderación de contenido en Twitch

Twitch está luchando con la moderación de contenido en su plataforma y estos problemas no son incidentes aislados. Los peligros en línea continúan evolucionando y plataformas como Twitch deben adaptarse a ellos. A medida que Twitch reconoce esta realidad, han mejorado sus pautas internas de seguridad para identificar nuevas formas de daños en línea, como el material de abuso sexual infantil generado por IA (CSAM). Además, expandir sus colaboraciones con organizaciones externas contribuirá, esperamos, a futuros esfuerzos para evitar la difusión de contenido similar. 🌐

🤔 Preguntas y Respuestas: Abordando tus preocupaciones

P: ¿Qué puede hacer Twitch para garantizar una mejor moderación de contenido en el futuro?

Twitch necesita seguir invirtiendo en tecnología avanzada capaz de identificar y señalar contenido potencialmente dañino en tiempo real. Deben priorizar el desarrollo de modelos de aprendizaje automático específicamente capacitados para detectar comportamientos relacionados con CSAM y prevenir los intentos de manipulación. La colaboración con organizaciones externas especializadas en protección infantil también puede desempeñar un papel vital en la mejora de los esfuerzos de moderación de contenido.

P: ¿Cómo pueden los usuarios ayudar a prevenir la difusión de clips perjudiciales en Twitch?

Los usuarios pueden informar activamente cualquier instancia de contenido inapropiado o explotador que encuentren mientras utilizan la plataforma. Es fundamental que la comunidad de Twitch esté atenta y denuncie dicho contenido de manera oportuna. Además, crear conciencia sobre el uso responsable de Internet, especialmente entre los menores, puede ayudar a evitar que se conviertan en víctimas sin saberlo.

P: ¿Qué métodos alternativos podría considerar Twitch para crear contenido similar a TikTok sin comprometer la seguridad?

Twitch podría implementar un proceso de revisión más estricto para los clips antes de que se publiquen. Introducir un sistema de aprobación o pre-selección de clips antes de que aparezcan en los feeds de los usuarios puede reducir significativamente el riesgo de que circule contenido perjudicial en la plataforma. Enfatizar la importancia de las pautas de la comunidad y proporcionar instrucciones claras sobre la creación de contenido adecuado también puede contribuir a un entorno más seguro.

P: ¿Existen regulaciones o marcos legales existentes a los que Twitch deba adherirse para mejorar la moderación de contenido?

Twitch debería trabajar en estrecha colaboración con reguladores y legisladores para garantizar el cumplimiento de las leyes existentes relacionadas con la protección infantil y la seguridad en línea. Deben participar activamente en discusiones sobre los peligros en línea y contribuir al desarrollo de regulaciones efectivas específicas para plataformas de transmisión en vivo.

Conclusión

Las dificultades de Twitch para moderar su plataforma destacan los desafíos de mantener un entorno seguro en medio del gran volumen de contenido que se genera y consume. Si bien Twitch está tomando medidas para abordar estos problemas, se requiere una mejora continua y medidas proactivas para proteger a los usuarios, especialmente a los menores, de la exposición a contenido perjudicial. Al aprovechar la tecnología avanzada, colaborar con organizaciones externas y fomentar una comunidad responsable, Twitch puede allanar el camino hacia una experiencia de transmisión en vivo más segura y agradable. 🌟

Referencias:

  1. Informe de Investigación de Bloomberg
  2. Eve Lanzó el Primer Enchufe Inteligente Matter-over-Thread del Mundo
  3. Reflexión sobre 2023: Un Año de Despidos Brutales en la Tecnología
  4. Centro Canadiense para la Protección del Niño
  5. Fuente de Video

📢 ¡Haz que se escuche tu voz! Comparte este artículo en tus plataformas de redes sociales favoritas y ayuda a crear conciencia sobre la importancia de la moderación de contenido y la seguridad en línea. ¡Juntos, podemos marcar la diferencia! 📣