Facebook endurece el uso de Live y buscará técnicas contra la manipulación de medios

Publicado el

hero-fb-live
Facebook quiere que situaciones como la vivida en su plataforma durante y posteriormente a los ataques terroristas en Nueva Zelanda, no vuelvan a suceder, tratándolas de minimizar lo máximo que sea posible.
En este sentido, está empezando a aplicar unas reglas más restrictivas para el uso de Live, su herramienta de transmisión en directo, como también invertirá bastantes recursos para posibilitar que técnicamente sus sistemas puedan ser capaces de detectar variaciones de vídeos infractores cuando vayan a ser subidos.

En el fondo, Facebook quiere tener una comunidad segura, entendiendo que para ello debe aplicarse restricciones, aunque ello pueda molestar a todos aquellos que quieran una plataforma libre de restricciones.

Nuevas reglas para evitar abusos en Live

En lo que respecta a Live, la compañía señala que desde hoy, todos aquellos usuarios que violen sus políticas más serias, como la publicación de una declaración de un grupo terrorista sin contexto, según ejemplifican, no podrán utilizar Live en periodos de tiempo establecidos, por ejemplo, durante 30 días, a partir de la primera infracción.
Añaden que estas restricciones las extenderán a otras áreas de su plataforma a lo largo de las próximas semanas, incluyendo la imposibilidad de que los usuarios infractores puedan crear anuncios.

En la búsqueda de nuevas técnicas para la detección de variantes de medios

Y en lo que respecta a la detección de las variantes de un vídeo prohibido, señala que a pesar de varias técnicas empleadas, incluida la tecnología de coincidencias de vídeo y audio, ello no ha sido suficiente para la proliferación de vídeos alterados correspondientes al ataque en Nueva Zelanda.
Ante esta situación, invertirán 7,5 millones en nuevas asociaciones de investigación con académicos de Universidad de Maryland, la Universidad de Cornell y la Universidad de California en Berkeley, para desarrollar nuevas técnicas para la detección de contenidos de imágenes, audio o vídeo que hayan sido manipulados, además de poder distinguir entre quienes publican contenidos involuntariamente frente a adversarios que manipulen intencionalmente vídeos y fotografías.
Además, señala que en los próximos meses llegará a nuevas asociaciones para hacer frente a la manipulación de los contenidos, implicando tanto a académicos como a «colegas de la industria»

Comparte en: