Hace no tanto, los primeros experimentos de IA generativa de vídeo parecían trucos de feria: clips breves, rostros que se deformaban como plastilina y movimientos con esa “rareza” que delata a una máquina. En 2023 circuló un ejemplo muy comentado con la cara de Will Smith mezclándose de forma inquietante con un plato de espaguetis, una de esas piezas que daban risa… hasta que te quedabas mirando demasiado tiempo. Dos años después, el mismo tipo de escena ya no se apoya en lo grotesco, sino en lo verosímil: un Will Smith comiendo pasta con textura, gestos y hasta sonidos que buscan parecer reales.
Ese salto sirve para entender por qué la última actualización de Seedance, el sistema de ByteDance para crear vídeos a partir de texto, ha provocado tanto ruido. Según ha contado Futurism, la nueva versión, identificada como Seedance 2.0, está generando fragmentos que en redes sociales se ven como si fueran metraje “encontrado” de películas conocidas o clips de celebridades en situaciones inventadas. Si hace un par de años la IA era como un aprendiz que aún manchaba el lienzo, ahora se comporta como alguien que ya sabe imitar pinceladas y técnicas con una soltura que confunde al ojo.
Qué es Seedance 2.0 y por qué se ha hecho viral tan rápido
Seedance se encuadra en la familia de herramientas text-to-video: tú describes una escena y el modelo intenta producir un vídeo coherente con esa descripción. El fenómeno reciente no se explica solo por la calidad visual, sino por el tipo de contenido que la gente ha empezado a crear y compartir. En cuestión de horas se difundieron supuestos “clips” con estética de superproducción, escenas que recuerdan a sagas tipo El Señor de los Anillos, y secuencias con famosos —como Kanye West o Kim Kardashian— reinterpretados dentro de un drama en mandarín. El resultado, por lo que se ha visto circular, no es el típico vídeo borroso que se identifica al segundo; tiene composición, iluminación y continuidad suficientes como para activar alarmas.
En paralelo, aparecieron clips con estrellas como Brad Pitt y Tom Cruise enfrentándose en una pelea encima de un puente parcialmente roto. Es un ejemplo perfecto de por qué la industria del entretenimiento se siente interpelada: no se trata solo de “hacer vídeos bonitos”, sino de fabricar escenas plausibles con rostros y cuerpos que el público reconoce. Es como si de pronto cualquiera pudiera jugar a ser director de casting con la cara de personas reales, sin pedir permiso y sin pasar por un set de rodaje.
El susto en Hollywood: cuando el trabajo creativo siente el aliento de la automatización
El miedo en Hollywood no es nuevo, pero cada mejora técnica lo intensifica. El guionista Rhett Reese, conocido por su trabajo en Deadpool, resumió ese vértigo en un mensaje en X en el que lamentaba que “probablemente se acabó” para quienes viven de escribir y levantar historias para la pantalla. No es que un modelo vaya a reemplazar de golpe a toda una industria, pero sí cambia la negociación psicológica: cuando una herramienta logra resultados convincentes, la pregunta deja de ser “si podrá” y pasa a ser “quién lo usará y con qué reglas”.
Hay otra capa de inquietud: la agencia de los intérpretes. Actores y actrices llevan tiempo advirtiendo del riesgo de que su imagen se convierta en materia prima reutilizable. La comparación cotidiana sería esta: imagina que tu voz se graba una vez para un buzón de voz y, a partir de ahí, cualquiera puede hacer llamadas con tu tono, tu acento y tus muletillas, diciendo lo que le convenga. En cine y televisión, la cara y el cuerpo son la firma. Si esa firma se puede copiar y pegar, el contrato cultural se tambalea.
Copyright y rostros famosos: el choque frontal con la Motion Picture Association
El debate no se queda en lo ético. Según informó la BBC, la Motion Picture Association (MPA) reaccionó con dureza ante la circulación de clips generados con Seedance 2.0 que incluían celebridades y estética de obras reconocibles. Su presidente y CEO, Charles Rivkin, acusó a la herramienta de permitir un uso no autorizado de obras con copyright “a gran escala” y de operar sin salvaguardas significativas contra la infracción. La MPA no habla solo en nombre del glamour; representa un ecosistema de empleos, inversión y derechos de explotación que depende de que las reglas se respeten.
Aquí conviene separar dos problemas que suelen mezclarse. Uno es el uso de la imagen de personas reales, que roza el terreno de los deepfakes y los derechos de personalidad. Otro es la infracción de derechos de autor vinculada a personajes, universos, estilos visuales y fragmentos que parecen derivar de material protegido. Seedance 2.0, por lo que se denunció, tocaba ambos nervios a la vez. No es extraño que el tono sea de choque: cuando una plataforma permite generar algo que se parece a un “producto de estudio”, la frontera entre homenaje, parodia, copia y explotación comercial se vuelve un campo minado.
Las “barandillas” de seguridad: ByteDance promete frenos, pero el reto es técnico y cultural
Ante la presión, ByteDance habría restringido la capacidad de generar clips de personas reales, según lo que se ha reportado. El problema es que las guardrails no son una puerta con candado; se parecen más a un control de acceso en un estadio lleno. Puedes revisar entradas, vigilar pasillos, reforzar personal, pero siempre hay intentos de colarse, atajos creativos y usos no previstos. Y en modelos generativos, los “trucos” para esquivar filtros suelen aparecer rápido: pequeñas variaciones de texto, cambios mínimos en el prompt, referencias indirectas.
La situación se entiende mejor comparándola con las dificultades que otras compañías han tenido al desplegar herramientas de vídeo. El propio artículo de Futurism menciona que OpenAI ha lidiado con problemas de control en su generador de vídeo, un recordatorio de que el equilibrio entre potencia creativa y prevención de abuso no es sencillo. Si filtras demasiado, frustras a usuarios legítimos; si filtras poco, abres la puerta a la copia, la suplantación y la desinformación. Es una cuerda floja: lo que el público celebra por “realista”, los juristas lo ven como un riesgo multiplicado.
Lo que realmente está en juego: confianza, trabajo creativo y un nuevo tipo de alfabetización audiovisual
Seedance 2.0 no solo plantea una disputa entre empresas tecnológicas y estudios. También empuja al público a desarrollar una especie de “olfato digital” para el vídeo. Durante décadas, un clip era casi sinónimo de evidencia: “si está grabado, pasó”. Con la IA de vídeo, esa relación se rompe. El vídeo se convierte en algo más parecido a un texto: puede ser escrito, reescrito, editado, inventado. La consecuencia práctica es que necesitaremos señales de procedencia, marcas de agua robustas, metadatos verificables y normas claras para etiquetar contenido generado.
En el lado creativo, también aparece una oportunidad que convive con la amenaza. Estas herramientas pueden servir como storyboard instantáneo, prototipado visual, previsualización de escenas y exploración de ideas sin un presupuesto enorme. Es como tener una maqueta rápida antes de construir la casa: ayuda a decidir, a iterar y a comunicar. La tensión llega cuando la maqueta empieza a confundirse con la casa terminada y cuando los materiales usados para construirla provienen de obras ajenas sin permiso.
La disputa sobre Seedance 2.0 es, en el fondo, una discusión sobre reglas del juego: quién puede usar qué, con qué licencias, cómo se protege a los creadores humanos y qué límites se imponen a la suplantación. Mientras la tecnología avanza a ritmo de actualización, el marco legal y cultural se mueve más lento, como un guion que se reescribe cuando el rodaje ya empezó. Fuentes como Futurism y BBC, junto con la postura de la MPA, muestran que la conversación ya no es hipotética. Se está negociando en tiempo real, con cada vídeo viral como si fuera una prueba en un juicio público.
