Empresa de moderación de contenido encontrada responsable por el daño psicológico de un trabajador Un punto de inflexión en la industria

Un tribunal español ha encontrado a una empresa con sede en Barcelona que ofrece servicios de moderación de contenido para Facebook e Instagram, como subcontratista de Meta, responsable de causar daño psicológico a uno de sus empleados.

Las autoridades españolas están presionando el modelo de subcontratación de moderadores de contenido de Meta.

En una decisión histórica, un tribunal en España ha responsabilizado a una subcontratista con sede en Barcelona de Meta, la empresa matriz de Facebook e Instagram, por causar daño psicológico a uno de sus trabajadores. Esta decisión judicial marca la primera vez que una empresa de moderación de contenido ha sido considerada responsable por los trastornos mentales sufridos por un empleado.

Según informes de prensa local, el caso judicial fue presentado por un trabajador brasileño de 26 años que ha estado recibiendo tratamiento psiquiátrico durante los últimos cinco años debido a la exposición a contenido extremo y violento en Facebook e Instagram. Este contenido consistía en imágenes perturbadoras como asesinatos, suicidios, terrorismo y tortura. Como resultado de esta exposición, el trabajador experimentó una serie de problemas psicológicos, incluyendo ataques de pánico, comportamientos de evitación, preocupación excesiva por enfermedades, sueño perturbado, dificultad para tragar y un miedo significativo a la muerte.

El tribunal reconoció que los problemas de salud mental del trabajador no eran una enfermedad común, sino más bien resultado directo de su trabajo. Sin embargo, la subcontratista de Meta intentó evadir cualquier responsabilidad clasificando la condición del trabajador como una dolencia general. Ya es hora de que Meta y otras plataformas de redes sociales reconozcan y aborden la magnitud de este problema, en lugar de negar su existencia. Solo cuando enfrenten y acepten esta realidad espantosa, las cosas comenzarán a cambiar.

La decisión del tribunal ha sido aclamada como una gran victoria para los trabajadores que experimentan problemas de salud mental como consecuencia de su trabajo. El bufete de abogados que representa al trabajador, Espacio Jurídico Feliu Fins, enfatizó la necesidad de que Meta y otras empresas revisen su enfoque y estrategias hacia la moderación de contenido.

🔍 Preguntas y respuestas relacionadas:

P: ¿Es la subcontratación de moderación de contenido una práctica común en la industria? R: Sí, la subcontratación de moderación de contenido a subcontratistas externos es una práctica común en la industria. Estos subcontratistas suelen emplear a trabajadores mal pagados que actúan como filtros humanos para contenido violento y perturbador.

P: ¿Existen otros casos en los que los moderadores de contenido han sufrido daño psicológico? R: Sí, ha habido varios casos en los que los moderadores de contenido han desarrollado problemas de salud mental debido a su exposición a imágenes violentas y gráficas. Por ejemplo, Meta llegó a un acuerdo extrajudicial de $52 millones en una demanda colectiva en Estados Unidos en 2020, donde los moderadores de contenido alegaron que su trabajo les causó trastorno de estrés postraumático.

P: ¿Qué medidas están tomando las empresas para apoyar la salud mental de los moderadores de contenido? R: Empresas como Meta afirman tener ciertas disposiciones para apoyar la salud mental de los moderadores de contenido. Estas incluyen apoyo in situ con profesionales capacitados, acceso a atención médica privada desde el primer día de empleo y soluciones técnicas para limitar la exposición a material gráfico.

La subcontratación de la moderación de contenido a empresas externas ha sido una preocupación constante durante años. Historias de trabajadores mal pagados expuestos a contenido traumático han planteado preguntas éticas sobre la responsabilidad de las plataformas de redes sociales. Aunque Meta ha declinado hacer comentarios sobre la reciente decisión en contra de su subcontratista en España, la empresa ha defendido su enfoque hacia la moderación de contenido destacando el apoyo y las herramientas de evaluación que proporciona a los subcontratistas.

Sin embargo, es importante considerar si la implementación de servicios de apoyo y herramientas de evaluación puede verse socavada por cuotas de productividad estrictas impuestas por los subcontratistas. En la práctica, estas cuotas pueden dificultar que los moderadores de contenido accedan al apoyo adecuado mientras cumplen con las demandas de sus empleadores.

Además, informes de periódicos con sede en Barcelona han indicado que un porcentaje significativo de trabajadores de CCC Barcelona Digital Services, la subcontratista de Meta, han tomado tiempo libre debido al trauma psicológico causado por la revisión de contenido tóxico. Los trabajadores han criticado el nivel de apoyo proporcionado por su empleador como insuficiente. Además, los objetivos de rendimiento exigentes y el trabajo por turnos pueden contribuir aún más al desarrollo de problemas de salud mental entre los moderadores de contenido.

🔍 Lecturas adicionales:

  1. El lado oscuro de la moderación de contenido: el impacto en la salud mental de los trabajadores
  2. Gigantes de las redes sociales y la responsabilidad moral de la moderación de contenido
  3. Soluciones de IA para la moderación de contenido: equilibrando eficiencia y bienestar psicológico
  4. El costo psicológico de presenciar violencia en las redes sociales

Es crucial que empresas como Meta prioricen el bienestar mental de sus moderadores de contenido y garanticen un entorno de trabajo de apoyo y seguro. Las decisiones legales que imponen responsabilidades a los revisores de contenido de terceros para salvaguardar la salud mental de los trabajadores pueden ser un punto de inflexión en la industria. Si bien la moderación de contenido seguirá siendo una tarea difícil, la salud y el bienestar de aquellos encargados de proteger a los usuarios de contenido perjudicial deben ser prioritarios.

En conclusión, el reciente fallo judicial en España pone de manifiesto la necesidad de que las plataformas de redes sociales revalúen sus estrategias y reconozcan el impacto de la moderación de contenido en la salud mental de los trabajadores. La subcontratación de la moderación de contenido no debe ser a expensas del bienestar de los empleados. A medida que la industria avanza, es crucial encontrar un equilibrio entre la protección de los usuarios y garantizar la seguridad y salud mental de los moderadores de contenido.

💬 ¡Lectores, ¿qué piensan sobre las responsabilidades de las empresas de redes sociales hacia los moderadores de contenido? ¡Compartan sus opiniones a continuación! Y no olviden hacer clic en el botón de compartir para difundir conciencia sobre este importante tema.