En diferentes contextos, Mark Zuckerberg dejó saber que están preparando nuevas dinámicas para combatir las noticias falsas y mejorar su sistema de moderación de contenidos.
Una de las nuevas dinámicas mencionadas se enfoca en aquellos contenidos que no violan ninguna política de la plataforma, pero que se encuentran en el límite de lo permitido. Por ejemplo, aquellas que contribuyen a la desinformación, clickbait, o de manera solapada o sensacionalista fomentan el odio, la violencia, entre otros.
Facebook entrenará a su IA para que detecte este tipo de contenido y le quite visibilidad, ya que crean un efecto contraproducente en la plataforma:
Nuestra investigación sugiere que no importa dónde dibujemos las líneas para lo que está permitido, a medida que una parte del contenido se acerca a esa línea, la gente se involucrará más en promedio, incluso cuando luego nos dicen que no les gusta el contenido
Mark Zuckerberg cree que vetar este tipo de contenido límite, reduciendo su distribución, ayudará a mantener la calidad de las publicaciones que se comparten, y mejorará la interacción en la plataforma.
Por otro lado, piensa modificar el sistema de apelaciones en la moderación de contenidos, con el fin de brindar un proceso más transparente. El equipo de Facebook ya no será el encargado de supervisar esta dinámica, sino que se creará un organismo independiente, que contribuirá a la calidad del proceso:
Primero, evitará la concentración de demasiada toma de decisiones dentro de nuestros equipos. En segundo lugar, creará responsabilidad y supervisión. Tercero, brindará seguridad de que estas decisiones se toman en el mejor interés de nuestra comunidad y no por razones comerciales.
Por el momento, no han definido cómo se establecerá o funcionará este organismo, pero esperan comenzar a probar su dinámica en 2019.