Google lanza herramienta para ayudar a eliminar contenidos de abuso sexual infantil

Publicado el

Google11-730x480-730x480

Google acaba de presentar una nueva herramienta de Inteligencia Artificial que ayudará a los moderadores de contenidos a revisar de manera más efectiva aquellos contenidos que sean más proclives a ser material sobre explotación sexual infantil en plena propagación.

La nueva herramienta se pondrá a disposición de manera gratuita a ONGs y socios de la industria a través de la API de Content Safety. La misma ayudará a los moderadores, según Google, a ser más efectivos en hasta un 700% sobre la misma cantidad de tiempo a la hora de encontrar y tomar medidas antes contenidos CSAM (propagación del material de abuso sexual infantil, por sus siglas en inglés) en lí­nea.

Esto dará lugar a acelerar la identificación y mejorar la protección de los menores afectados ante los nuevos abusos que pudieran dar lugar.

Lo mejor de todo es que esta nueva herramienta se dedicará a seleccionar de manera más precisa aquellos contenidos que sean más proclives a ser contenidos de explotación sexual infantil en propagación para su revisión, incluyendo aquellos contenidos que previamente no hayan sido denunciados al respecto.

Y es que, habitualmente, los moderadores suelen revisar aquellos contenidos que los usuarios suelan marcar (denunciar) previamente, escapando otros posibles contenidos. Y dado que las organizaciones y entidades cuentan con recursos limitados, esta nueva herramienta les permitirá ser efectivos a una escala mayor.

Desde Google invitan a las entidades interesadas a rellenar un formulario para la inclusión de la nueva herramienta en su actual flujo de trabajo.