WWWhat's new

Etiquetas de Contenido generado por IA en Youtube

etiqueta en youtube

Después de ver lo que se acerca (hablo de VLOGGER), está claro que los vídeos del futuro podrán estar hechos al 100% por máquinas (imagina lo que podrá hacerse si juntamos VLOGGER con Sora).

Las plataformas digitales se encuentran en una carrera constante por adaptarse y proteger a sus usuarios de potenciales desinformaciones, y ahora es YouTube quien mueve ficha con una medida significativa en este sentido, que considero merece una mirada detallada.

Desde noviembre de 2023, la plataforma de videos más grande del mundo implementó una nueva política que busca incrementar la transparencia sobre el contenido generado artificialmente. Ahora, si subes un video a YouTube y has utilizado herramientas de IA generativa para crear escenas que parecen reales, es necesario que lo declares en algunos casos (ahora os explico cuándo). Esto aplica especialmente si el contenido podría confundirse con personas, lugares o eventos auténticos. Recordad que la IA en Youtube ya se lleva usando internamente desde hace meses.

Esta medida se materializa en el Creator Studio, donde ahora encontrarás etiquetas específicas para señalar el uso de medios sintéticos. ¿El objetivo? Evitar que los espectadores sean engañados por videos que, aunque parezcan reales, han sido alterados o creados desde cero con IA.

La directriz de YouTube especifica varios casos en los que es necesario este nuevo etiquetado. Si el video muestra a una persona real diciendo o haciendo algo que nunca ocurrió, altera material de eventos reales, o crea escenas realistas ficticias, deberás marcarlo. Sin embargo, si usas IA para diseñar escenarios fantásticos, ajustar colores, aplicar efectos especiales o filtros de belleza, no es necesario declararlo. Esta distinción es crucial para entender la intención detrás de la política: no limitar la creatividad, sino preservar la autenticidad y la verdad.

Detrás de esta actualización de las normas de YouTube subyace una preocupación mayor: el auge de los deepfakes y otros contenidos generados por IA que pueden confundir o engañar al público. A medida que nos acercamos a eventos cruciales, como las elecciones presidenciales en Estados Unidos, la potencialidad de que estos videos falsos sean utilizados para influir indebidamente en la opinión pública es un riesgo que no podemos ignorar.

Al principio, cuando leí la noticia, me asusté. Marcar si he usado la IA para mejorar el vídeo lo considero excesivo. Hay que estar atentos a los detalles, solo será necesario si hay posibilidad de que el oyente sea engañado. Es decir, que es mejor seguir usando el sentido común, nos irá bien a todos.

Salir de la versión móvil