Facebook quiere mejorar la moderación en la plataforma detectando a tiempo contenido inapropiado. Para ello, está aplicando diferentes líneas de trabajo tanto para entrenar a moderadores como para potenciar los alcances de sus algoritmos.
Por ejemplo, una de ellas gira en la posibilidad de entrenar a su IA con imágenes grabadas por las cámaras policiales. Esto se llevará a cabo gracias a la colaboración de las autoridades policiales de Reino Unido y Estados Unidos.
Facebook contribuirá con cámaras a la Policía Metropolitana del Reino Unido, que los agentes llevarán en su ropa como parte de un programa de capacitación. Los datos obtenidos serán analizados tanto por Facebook como por el Ministerio del Interior de Reino Unido.
De esa manera, la IA de Facebook podrá ser entrenada con imágenes reales de actos violentos, aumentando la precisión a la hora de detectar estos contenidos en la plataforma. Ya sabemos que el sistema de Facebook ha fallado una y otra vez en la detección precoz de vídeos e imágenes sobre hechos violentos, como ya han reconocido en varias oportunidades:
Por ejemplo, el video del ataque en Christchurch no provocó nuestros sistemas de detección automática porque no teníamos suficiente contenido que mostrara imágenes en primera persona de eventos violentos para entrenar efectivamente nuestra tecnología de aprendizaje automático.
Veremos si estas nuevas medidas logran una diferencia para erradicar los mensajes de odio, el terrorismo y los contenidos violentos de la plataforma.