La inteligencia artificial puede llegar a conclusiones de forma eficaz y rápida, pero eso no significa que no pueda burlarse, y cuando el sistema es crítico, esa burla puede ser desastrosa.
Eso es lo que ocurre con Youtube Kids, la plataforma de vídeos para niños de Youtube: si se escapa un vídeo para adultos, uno solo, el problema puede ser inconmensurable.
YouTube pagó a la FTC una multa de 170 millones de dólares este año, no mucho para la compañía, eso está claro, pero el problema en su reputación si viola la Ley de protección de la privacidad en línea para niños le podrá salir mucho más caro. De hecho, ya ha tenido problemas de ese tipo.
Según informes publicados por Bloomberg, Youtube sitio consideró la detección individual de cada video de YouTube Kids. YouTube reunió a un equipo de 40 empleados con el nombre en clave Crosswalk, en referencia a las numerosas «calles» de contenido peligroso en el sitio. Una de las propuestas fue proyectar cada video dirigido a niños menores de ocho años para garantizar que no se transmitiera contenido inapropiado.
Algunos periodistas identificaron durante 2018 videos inquietantes con suicidios y violencia, a menudo con versiones falsas de personajes de dibujos animados queridos como Mickey Mouse y Peppa Pig, y la forma de evitarlo es verlo todo antes de publicarlo.
En el último minuto, la CEO Susan Wojcicki abandonó el plan, según las fuentes de Bloomberg. Aparentemente, tal moderación haría que el sitio se pareciera demasiado a una compañía de medios.
YouTube prometió a principios de año tomar medidas más fuertes sobre el contenido para niños y comenzó deshabilitando los comentarios en varios millones de vídeos. Han conseguido reducir mucho, pero aún no es 100% seguro.
Recordad lo que comentamos hace unos días: hay 500 horas de vídeo subidas cada minuto, es prácticamente imposible ver todo lo que se sube, aunque con Youtube Kids parece que no hay otra opción.