WWWhat's new

Sentencia histórica en España: El impacto psicológico de la moderación de contenidos en Redes Sociales

Peligros en moderación de contenido

Peligros en moderación de contenido

La reciente sentencia en un tribunal de Barcelona representa un hito en el reconocimiento legal de los efectos psicológicos adversos sufridos por los trabajadores de la moderación de contenidos en redes sociales​​. Este caso, involucrando a un subcontratista de Meta, pone en relieve varios aspectos cruciales de esta industria.

Un trabajador brasileño de 26 años, empleado por una subcontratista de Meta, ha sufrido daños psicológicos severos. Estos incluyen ataques de pánico y thanatofobia, resultado de exponerse a contenido extremadamente violento en Facebook e Instagram. El tribunal reconoció estos problemas mentales como un accidente laboral, no como una enfermedad común.

Meta ha subcontratado la revisión de contenido tóxico durante años. En 2020, resolvió una demanda colectiva en Estados Unidos, pagando 52 millones de dólares a moderadores de contenido que desarrollaron trastorno de estrés postraumático. Sin embargo, la controversia continúa, incluyendo litigios en África por falta de soporte de salud mental adecuado.

A pesar de que Meta afirma que sus contratos con terceros incluyen servicios de apoyo, como asesoramiento y capacitación, la realidad muestra que las cuotas de productividad y rendimiento impuestas socavan estos servicios. Informes indican que aproximadamente el 20% del personal de dicha empresa estaba de baja por trauma psicológico. La alta tasa de éxito exigida (98%) y el uso de herramientas de filtrado​​ que oscurecen el contenido pueden dificultar el cumplimiento de los objetivos de rendimiento, desalentando a los trabajadores de utilizar medidas de protección.

Este modelo parece diseñado para gestionar la toxicidad mediante una alta rotación de personal joven y mal remunerado. El trabajo por turnos y las expectativas de rendimiento contribuyen al desarrollo de problemas de salud mental, lo que sugiere un enfoque de negocio basado en la «externalización del agotamiento».

Las decisiones legales como esta podrían limitar el modelo actual de subcontratación y exigir un mayor cuidado de la salud mental de los trabajadores​​. Es fundamental una mayor regulación y supervisión para proteger la salud y el bienestar de estos trabajadores esenciales.

Tenéis más detalles en elperiodico.com.

Cómo debería realizarse el trabajo de moderación de contenido

La moderación de contenidos en redes sociales es una tarea crítica pero potencialmente perjudicial para la salud mental de los trabajadores. Para realizar esta tarea de manera que minimice el impacto negativo en los moderadores, se deben considerar varias estrategias:

1. Implementación de Herramientas Tecnológicas Avanzadas

2. Soporte Psicológico y Bienestar del Empleado

3. Mejoras en las Condiciones Laborales

4. Transparencia y Comunicación

5. Políticas y Prácticas Responsables

6. Capacitación y Desarrollo Profesional

Al integrar estas estrategias, las empresas pueden ayudar a garantizar que la moderación de contenidos se realice de manera efectiva, sin comprometer la salud mental de los empleados. Esto requiere un compromiso continuo y una inversión significativa en recursos, pero es esencial para mantener un entorno laboral sostenible y ético en esta área crítica de la tecnología y las redes sociales.