En un esfuerzo por mejorar la transparencia sobre el contenido creado con inteligencia artificial, Google ha ampliado la capacidad de su app Gemini para verificar no solo imágenes, sino también videos generados o editados con sus propios modelos de IA. Esta función, disponible desde diciembre de 2025, permite que cualquier persona pregunte directamente a la app si un video fue realizado utilizando tecnología de Google, con solo subir el archivo y escribir la frase: «¿Fue generado con Google AI?».
La detección no se limita a un simple «sí» o «no». Gemini está diseñada para analizar cuidadosamente tanto la pista visual como la de audio en busca de una marca de agua digital llamada SynthID, que Google califica como imperceptible al ojo humano pero detectable por sus algoritmos. En lugar de ofrecer una respuesta genérica, la app muestra momentos concretos del video donde se encuentra esta marca, detallando en qué segundo aparece y si está en la imagen o en el sonido.
SynthID: el sello invisible de la IA de Google
El uso de SynthID como marca de agua es una de las estrategias más relevantes de Google para combatir la desinformación generada por IA. A diferencia de una marca de agua tradicional que se superpone sobre una imagen, SynthID se incrusta directamente en los datos del contenido, de forma que es muy difícil de eliminar sin dañar el archivo. Sin embargo, hasta el momento no se ha comprobado cuán resistente es frente a intentos de manipulación, ni cuántas otras plataformas podrán detectar esta información.
Esta tecnología ya estaba disponible para imágenes desde noviembre de 2025, también limitadas a aquellas creadas o modificadas con herramientas de Google. Ahora, la expansión hacia los videos marca un paso importante en la carrera por lograr una trazabilidad confiable del contenido generado por IA.
Limitaciones importantes de la verificación
Es importante tener en cuenta que esta función sólo puede detectar contenido generado con herramientas de Google, por lo que si un video fue producido con modelos de otras compañías como OpenAI, Meta o Adobe, la app no podrá ofrecer ningún tipo de verificación. Esto resalta una de las grandes debilidades de los sistemas actuales de detección: la falta de un estándar común para etiquetar contenido generado por IA entre distintas plataformas.
Google ha confirmado que Gemini puede procesar videos de hasta 100 MB y 90 segundos de duración, lo que limita su aplicación a clips cortos. Aun así, es un paso significativo, sobre todo para verificar contenido sospechoso en redes sociales, donde muchas veces los deepfakes se presentan en formato breve.
La necesidad urgente de una trazabilidad universal
La introducción de herramientas como SynthID refleja un intento de crear responsabilidad y trazabilidad en la era de los contenidos generados por IA. Sin embargo, sin una colaboración entre empresas tecnológicas, gobiernos y plataformas de redes sociales, estos esfuerzos quedan fragmentados. Por ejemplo, aunque Google también utiliza metadatos C2PA en su modelo Nano Banano para imágenes, muchas plataformas sociales no conservan ni respetan estos metadatos al subir contenido.
Esto significa que, aunque una imagen o video tenga marcas de identificación al salir del generador, puede perderlas en el trayecto hasta el usuario final. Por eso, resulta crucial avanzar hacia sistemas interoperables y resistentes a la manipulación, que permitan identificar contenido generado por IA sin importar dónde se comparta.
Google, OpenAI y los retos del etiquetado
El problema no es exclusivo de Google. OpenAI, al lanzar su generador de video Sora, descubrió que las marcas de agua que había implementado eran fáciles de eliminar, lo que pone en evidencia lo complicado que es asegurar la permanencia de estos identificadores. Incluso con tecnologías de vanguardia, los desarrolladores de IA siguen luchando contra las técnicas de borrado y remezcla de contenido, que pueden hacer desaparecer cualquier rastro de origen artificial.
Esta situación obliga a pensar en medidas complementarias, como la educación digital, la alfabetización mediática y la creación de normas internacionales para el etiquetado y la detección de contenido generado por IA. Mientras tanto, herramientas como Gemini son un paso en la dirección correcta, aunque no una solución definitiva.
Un uso sencillo para el usuario final
Desde el punto de vista práctico, la verificación en Gemini es tan simple como subir un video desde el móvil o escritorio y escribir la pregunta adecuada. Esta accesibilidad puede facilitar el trabajo de periodistas, verificadores de hechos y usuarios preocupados por la autenticidad de lo que consumen online. La función está disponible en todos los países y en todos los idiomas donde Gemini ya funciona, lo que expande su potencial de uso global.
Si bien el sistema está limitado por el tamaño y duración del video, podría servir como un primer filtro para detener la propagación de videos falsos, especialmente aquellos con apariencia profesional pero creados por IA con fines de engaño o desinformación.
Futuro del control de contenido generado por IA
El avance de las herramientas de generación de contenido ha puesto en jaque la capacidad de distinguir lo real de lo artificial. Google, al integrar esta función en su app Gemini, propone un modelo donde la misma empresa que crea la herramienta de IA también ofrece los medios para identificar sus usos. Esto tiene sentido desde el punto de vista de la responsabilidad, pero deja abierta la pregunta sobre qué hacer con los contenidos que provienen de desarrolladores menos responsables o con intenciones maliciosas.
El camino hacia una Internet segura frente a los engaños de la IA pasa por iniciativas como esta, pero también requiere de acuerdos globales y soluciones técnicas comunes que permitan detectar, etiquetar y controlar el contenido generado artificialmente en cualquier plataforma.
