La idea es aplicar un sistema basado en inteligencia artificial en las transmisiones en directo, para detectar escenas de desnudez, violencia o cualquier clase de contenido inapropiado, según las policitas de Facebook.
Desde hace tiempo, Facebook está en la mira por su sistema poco eficaz para detectar noticias falsas o sus equivocaciones al momento de censurar publicaciones. Por ejemplo, unos meses atrás, Facebook fue criticado por borrar una publicación donde se mostraba una fotografía reconocida internacionalmente que aludía a la guerra de Vietnam.
La fotografía tomada por el fotógrafo Nick Ut, técnicamente violaba la política de Facebook sobre contenidos con escenas de desnudez, pero obviamente el contexto estaba muy alejado de tener un sentido pornográfico.
Ahora con esta nueva dinámica, que aún está en prueba, el sistema sería el responsable de detectar el contenido inapropiado y marcar las secuencias correspondientes, dejando de lado la revisión de los empleados de Facebook.
Según el equipo de Facebook, aún queda mucho trabajo por realizar para potenciar el sistema, ya que tiene que ser rápido, por la dinámica de las transmisiones en directo, y entender el funcionamiento de las políticas de la empresa.