YouTube, al igual que muchas empresas de Internet, continúa con parte importante de sus equipos de trabajo ejerciendo sus labores remotamente, con una dotación reducida y el apoyo de recursos complementarios.
Bajo este mecanismo, en su más reciente cuenta pública, la popular plataforma comentó que entre abril y junio eliminó 11,4 millones de vídeos que infringían sus reglas. Entre esos, un 90% fue marcado por acción de un sistema automatizado de control.
La pandemia de COVID-19 sigue sacando a la luz sus repercusiones en el mundo laboral. Hasta hoy, muchos puestos de trabajo en Google y sus servicios asociados, entre ellos YouTube, permanecen activos mediante una modalidad remota. Según lo declarado por la compañía, la transición a este nuevo esquema de trabajo conllevó una “reducción en gran medida de su capacidad de revisión humana”.
Si se analiza esta situación considerando que tras desencadenarse la pandemia la generación y consumo de contenidos digitales presentó una fuerte tendencia al alza, más necesaria se vuelve, bajo la lógica de funcionamiento de YouTube, dedicar más atención a la aplicación de filtros sobre los contenidos que circulan en su plataforma, para garantizar el cumplimiento de sus normas comunitarias.
Para suplir esta carencia de inspectores de contenido “de carne y hueso”, Google apostó por la aplicación de sistemas automatizados de revisión de contenidos, confiándoles la eliminación de 10,85 millones de vídeos marcados como infractores de sus reglas. Esta cifra representa más del doble del registro archivado en el período anterior, comprendido entre enero y marzo de este año.
«La decisión de aplicar en exceso en estas áreas de nuestras políticas, por precaución, generó un aumento de más de 3 veces en la eliminación de contenido que nuestros sistemas sospechaban que estaba vinculado al extremismo violento o era potencialmente dañino para los niños», declaró Google en su portal de transparencia.
La información compartida a través de este informe señala que el material eliminado se eliminó mayoritariamente antes de que acumulara reproducciones. Las principales causas tras la eliminación vídeos fue por protección infantil y la erradicación de spam, desnudos, violencia gráfica y promoción de estas prácticas. En menor escala se clasifican otras categorías como el contenido que incita al odio o que se utiliza para ciberacoso.
Los principales países desde los que provenían estos vídeos son Estados Unidos, India, Brasil, Indonesia y Rusia. Sin embargo, el mismo informe señala que este registro se obtiene mediante las direcciones IP, indicio que puede ser alterado mediante una VPN o un servidor proxy.
El 10% restante de los videos, aquellos que fueron eliminados por obra ajena al algoritmo de YouTube, se retiraron tras recibir reportes de usuarios, ONGs, organismos públicos y otras fuentes de confianza.
Bajo la misma lógica del filtrado de material audiovisual, los comentarios en la plataforma también fueron parte de esta rutina de limpieza. Aplicando los mismos criterios de selección, más de 2.132 millones de comentarios fueron retirados de YouTube en el último trimestre.
El informe se encuentra dotado de una serie de gráficos y comentarios que contextualizan los datos expuestos con los lineamientos que rigen sus normas de la comunidad. Cada indicador de este último boletín puede compararse con el período enero-marzo 2020.
Este reporte de transparencia, marcado por el impacto de la aplicación de un sistema automático de filtrado de contenidos, puede revisarse en completo español siguiendo este enlace.