La decepción impulsada por IA ya no es una rareza reservada para montajes torpes. Hoy convive con nosotros en el carrusel infinito de vídeos, imágenes y capturas que consumimos a diario. A veces se nota a simple vista, como cuando una foto manipulada se comparte desde cuentas oficiales y quien pregunta por su origen recibe respuestas burlonas. Otras veces pasa como el azúcar en el café: se disuelve y no la ves, pero está ahí, endulzando una narrativa. MIT Technology Review citaba recientemente cómo campañas de influencia difunden vídeos para desalentar el alistamiento en Ucrania, acumulando visualizaciones sin que el espectador medio tenga herramientas claras para orientarse.
En ese contexto, Microsoft ha movido ficha con un plan que pretende responder a una pregunta cada vez más básica: “¿De dónde sale esto y qué le han hecho por el camino?”. No promete decirnos si algo es verdadero o falso, que es justo donde el asunto se vuelve espinoso; su idea es ofrecer pruebas sobre la procedencia del contenido y sobre si ha sido alterado mediante herramientas de IA generativa.
La propuesta de Microsoft: un “pasaporte” para cada archivo
El planteamiento de la compañía, compartido con MIT Technology Review, se parece a un sistema de identidad para medios digitales. Piensa en un “pasaporte” que acompaña a una imagen o un vídeo: quién lo creó, con qué herramienta, cuándo se editó, qué cambios se aplicaron y si existen marcas técnicas que lo respalden. La analogía que usa Microsoft es muy visual: autenticar un Rembrandt. Para fiarte de un cuadro no basta con mirarlo; miras la procedencia, los documentos, los registros, el rastro de propietarios, las certificaciones. En internet, ese rastro suele perderse al primer pantallazo, reenvío o recorte.
Según explicó el equipo de investigación de seguridad de IA de Microsoft, evaluaron decenas de configuraciones posibles para documentar manipulación digital. En concreto, modelaron alrededor de 60 combinaciones de técnicas, probando cómo sobreviven en escenarios reales: cuando se eliminan metadatos, cuando el archivo se comprime, cuando sufre cambios leves o cuando alguien intenta manipularlo de forma deliberada para “engañar al detector”. El objetivo no es tener un truco perfecto, sino identificar qué mezclas de herramientas generan resultados lo bastante sólidos como para mostrarlos con confianza en una plataforma.
Tres pruebas de autenticidad: procedencia, marca de agua y huella digital
En el “kit” que Microsoft describe hay tres ideas que se complementan como un cinturón, tirantes y un nudo bien apretado: cada pieza por sí sola ayuda, juntas aguantan mejor el tirón.
La primera es la procedencia del contenido, que suele materializarse como un manifiesto o registro que documenta el historial del archivo. No es solo “quién lo hizo”, también “qué le ocurrió después”. Como el historial de revisiones de un documento compartido, pero aplicado a imágenes y vídeos, y pensado para sobrevivir al ecosistema de redes sociales.
La segunda es la marca de agua. Aquí conviene desterrar una idea: no hablamos del logotipo semitransparente en una esquina, sino de señales que el ojo humano no ve, pero que un sistema puede leer. Es como meter un hilo invisible en una prenda para comprobar que es original. Google, por ejemplo, empezó a incorporar marcas de agua en contenido generado por sus herramientas en 2023, algo que investigadores como Hany Farid (UC Berkeley) consideran útil en análisis forenses.
La tercera es la huella digital criptográfica o firma matemática. Si la marca de agua es un hilo, la huella es una especie de “ADN” generado a partir de características del contenido. Si cambias un fragmento, esa huella puede delatarlo. El problema es que, en el mundo real, las plataformas recortan, recomprimen y reescalan; si la huella es demasiado sensible, saltará por cambios inocentes. Si es demasiado tolerante, puede dejar pasar manipulación.
La propuesta de Microsoft insiste en combinar estas piezas y en apoyarse en estándares existentes como C2PA y Content Credentials, que ya buscan estructurar cómo se adjunta y se interpreta información de procedencia.
Qué funciona y qué falla cuando el contenido se comparte
La parte menos glamourosa de este debate es la más importante: casi nada viaja intacto por internet. Un vídeo pasa por un editor, se exporta, se sube, se comprime, se reenvía, se descarga, se vuelve a subir con otro audio. En cada paso, se puede perder información crítica. Por eso el equipo de Microsoft probó sus combinaciones contra fallos típicos, incluyendo uno muy común: que los metadatos se “strippeen” (se eliminen) al publicar en una red social.
Su conclusión es incómoda pero sensata: hay configuraciones que dan una señal robusta incluso en escenarios adversos, y otras que generan resultados tan frágiles que podrían crear más confusión que claridad. Si el sistema se equivoca con frecuencia, el público deja de creer en él, igual que dejamos de mirar una app del tiempo si falla cada dos días.
No es un detector de verdad: es un detector de manipulación
Eric Horvitz, director científico de Microsoft, subrayó algo que suele perderse en el ruido político: estos mecanismos no determinan si un contenido es “cierto”. Determinan si ha sido generado o modificado, y ayudan a responder “de dónde viene”. La diferencia es esencial. Una foto real puede estar sacada de contexto; una imagen editada puede no ser maliciosa; un vídeo generado con IA puede ser claramente satírico.
Este matiz también funciona como defensa frente a la acusación de que Big Tech se erige en árbitro de la verdad. En vez de decir “esto es falso”, la etiqueta diría algo más humilde y verificable: “este archivo se creó con tal herramienta” o “este fragmento se alteró aquí”. Es como un etiquetado nutricional: no te obliga a comer o no comer, te dice qué contiene.
La adopción real: incentivos, auditorías y presión regulatoria
Aquí aparece la gran pregunta: si todo esto es tan necesario, ¿por qué no está ya en todas partes? La respuesta huele a economía de la atención. Etiquetar contenido puede reducir su alcance si la gente lo percibe como menos “auténtico”, y eso choca con modelos basados en engagement. Hany Farid lo decía con crudeza: si los líderes de plataformas creen que poner “generado por IA” reduce interacción, no tienen incentivos para hacerlo de forma agresiva.
MIT Technology Review citaba una auditoría de Indicator que encontró una realidad decepcionante: solo una parte de publicaciones de prueba en plataformas como Instagram, LinkedIn, Pinterest, TikTok y YouTube aparecía correctamente etiquetada como generada por IA. Ese dato encaja con la sensación cotidiana de que las etiquetas, cuando existen, llegan tarde o llegan a medias.
Mientras tanto, los reguladores aprietan. Horvitz vinculó el trabajo a legislación como la Ley de Transparencia de IA de California, con entrada en vigor prevista para agosto de 2026, y al ritmo al que han avanzado modelos capaces de mezclar vídeo y voz con un realismo cada vez más convincente. También hay presión desde Europa con el AI Act y desde otros países con propuestas que obligan a alguna forma de divulgación.
Microsoft, por su parte, está en una posición singular: opera Copilot, controla Azure como infraestructura de acceso a modelos, posee LinkedIn y mantiene una relación estrecha con OpenAI. Aun así, Horvitz evitó comprometerse a aplicar todas las recomendaciones de forma uniforme en el propio ecosistema de Microsoft, hablando en cambio de que los equipos internos usarán el informe para orientar hojas de ruta y decisiones de ingeniería.
Riesgos de hacerlo mal: cuando la etiqueta se vuelve boomerang
Una idea potente del plan es admitir que un etiquetado imperfecto puede ser peor que ninguno. Si un sistema marca contenido real como “manipulado por IA” por una modificación mínima —un recorte, una ligera corrección de color, una compresión agresiva— el público puede acabar rechazando la señal completa. Se crea un “efecto alarma”: suena tanto que terminas ignorándola.
La investigación también menciona ataques “sociotécnicos”, que no solo explotan fallos técnicos sino reacciones humanas. Imagina una imagen auténtica de un evento político tenso. Alguien cambia un puñado de píxeles irrelevantes con una herramienta de IA. Si la plataforma solo tiene un detector burdo, podría clasificarla como “IA” y sembrar duda sobre el evento entero. En cambio, si combinas procedencia y marcas, podrías mostrar que la imagen es mayoritariamente real y señalar qué parte fue alterada. Es el equivalente a decir: “El recibo es auténtico, lo único retocado es una línea”.
La primera prueba seria: California y el pulso político en EEUU
El texto de MIT Technology Review anticipaba que la ley californiana será un test clave en Estados Unidos, aunque la aplicación puede complicarse por el contexto federal. Se mencionaba una orden ejecutiva del presidente Trump a finales de 2025 orientada a limitar regulaciones estatales consideradas “gravosas” para la industria, junto con una postura poco favorable a políticas contra la desinformación y la cancelación de subvenciones relacionadas con ese ámbito.
La paradoja es evidente: los mismos canales oficiales que deberían ser referencia de fiabilidad han compartido contenido manipulado con IA en ocasiones, y la propia revista señalaba usos de generadores de vídeo por parte del Departamento de Seguridad Nacional con tecnología de Google y Adobe para piezas comunicativas. Horvitz reconocía, con cautela, que los gobiernos no están al margen de la manipulación desinformativa, ni en EEUU ni fuera.
La propuesta de Microsoft no elimina el engaño sofisticado, pero sí aspira a recortar un gran “volumen de ruido”, dificultando que la manipulación casual o masiva pase desapercibida. Si funciona, no será como poner una cerradura imposible de forzar; se parecerá más a encender las luces del portal y colocar una mirilla: quien quiera engañar tendrá que esforzarse más, y mucha gente tendrá por fin una pista razonable para decidir si confía, duda o busca contexto.
