Sentencia histórica en España: El impacto psicológico de la moderación de contenidos en Redes Sociales

Publicado el

Peligros en moderación de contenido

La reciente sentencia en un tribunal de Barcelona representa un hito en el reconocimiento legal de los efectos psicológicos adversos sufridos por los trabajadores de la moderación de contenidos en redes sociales​​. Este caso, involucrando a un subcontratista de Meta, pone en relieve varios aspectos cruciales de esta industria.

Un trabajador brasileño de 26 años, empleado por una subcontratista de Meta, ha sufrido daños psicológicos severos. Estos incluyen ataques de pánico y thanatofobia, resultado de exponerse a contenido extremadamente violento en Facebook e Instagram. El tribunal reconoció estos problemas mentales como un accidente laboral, no como una enfermedad común.

Meta ha subcontratado la revisión de contenido tóxico durante años. En 2020, resolvió una demanda colectiva en Estados Unidos, pagando 52 millones de dólares a moderadores de contenido que desarrollaron trastorno de estrés postraumático. Sin embargo, la controversia continúa, incluyendo litigios en África por falta de soporte de salud mental adecuado.

A pesar de que Meta afirma que sus contratos con terceros incluyen servicios de apoyo, como asesoramiento y capacitación, la realidad muestra que las cuotas de productividad y rendimiento impuestas socavan estos servicios. Informes indican que aproximadamente el 20% del personal de dicha empresa estaba de baja por trauma psicológico. La alta tasa de éxito exigida (98%) y el uso de herramientas de filtrado​​ que oscurecen el contenido pueden dificultar el cumplimiento de los objetivos de rendimiento, desalentando a los trabajadores de utilizar medidas de protección.

Este modelo parece diseñado para gestionar la toxicidad mediante una alta rotación de personal joven y mal remunerado. El trabajo por turnos y las expectativas de rendimiento contribuyen al desarrollo de problemas de salud mental, lo que sugiere un enfoque de negocio basado en la «externalización del agotamiento».

Las decisiones legales como esta podrían limitar el modelo actual de subcontratación y exigir un mayor cuidado de la salud mental de los trabajadores​​. Es fundamental una mayor regulación y supervisión para proteger la salud y el bienestar de estos trabajadores esenciales.

Tenéis más detalles en elperiodico.com.

Cómo debería realizarse el trabajo de moderación de contenido

La moderación de contenidos en redes sociales es una tarea crítica pero potencialmente perjudicial para la salud mental de los trabajadores. Para realizar esta tarea de manera que minimice el impacto negativo en los moderadores, se deben considerar varias estrategias:

1. Implementación de Herramientas Tecnológicas Avanzadas

  • Inteligencia Artificial (IA): Utilizar la IA para filtrar y clasificar el contenido inicialmente, reduciendo la exposición humana a material potencialmente dañino.
  • Mejoras en el Software: Desarrollar software que pueda oscurecer automáticamente imágenes y videos gráficos, disminuyendo la crudeza del contenido que los moderadores deben revisar.

2. Soporte Psicológico y Bienestar del Empleado

  • Acceso a Apoyo Psicológico: Proporcionar a los trabajadores acceso continuo a consejería y apoyo psicológico.
  • Formación en Resiliencia Psicológica: Ofrecer entrenamiento para mejorar la resiliencia y las estrategias de afrontamiento ante contenido perturbador.
  • Evaluaciones de Salud Mental Regulares: Realizar evaluaciones periódicas del bienestar mental de los trabajadores.

3. Mejoras en las Condiciones Laborales

  • Rotación de Tareas: Implementar un sistema de rotación para evitar la exposición prolongada a contenido perturbador.
  • Descansos y Tiempo Libre: Asegurar que los trabajadores tengan suficientes descansos y tiempo libre para recuperarse.
  • Ambiente de Trabajo Saludable: Crear un entorno laboral que promueva la salud mental, incluyendo espacios de relajación y actividades de bienestar.

4. Transparencia y Comunicación

  • Información Clara sobre Riesgos: Informar a los trabajadores sobre los posibles riesgos psicológicos y cómo manejarlos.
  • Canales de Comunicación Efectivos: Establecer canales de comunicación abiertos para que los empleados puedan expresar sus inquietudes y necesidades.

5. Políticas y Prácticas Responsables

  • Regulaciones y Estándares Éticos: Desarrollar y adherirse a normativas que aseguren prácticas éticas en la moderación de contenidos.
  • Monitoreo y Mejora Continua: Continuar evaluando y mejorando las prácticas de moderación para garantizar la seguridad y el bienestar de los trabajadores.

6. Capacitación y Desarrollo Profesional

  • Formación Continua: Ofrecer capacitación regular para equipar a los moderadores con las habilidades y conocimientos necesarios para manejar eficazmente el contenido desafiante.
  • Desarrollo de Carrera: Brindar oportunidades de crecimiento y desarrollo profesional para evitar la estancación y el agotamiento.

Al integrar estas estrategias, las empresas pueden ayudar a garantizar que la moderación de contenidos se realice de manera efectiva, sin comprometer la salud mental de los empleados. Esto requiere un compromiso continuo y una inversión significativa en recursos, pero es esencial para mantener un entorno laboral sostenible y ético en esta área crítica de la tecnología y las redes sociales.