OpenAI da un giro en Sora: control más estricto sobre derechos de autor y monetización de videos generados con IA

Publicado el

control más estricto sobre derechos de autor

Desde su reciente lanzamiento, la app Sora de OpenAI ha capturado la atención de los usuarios y también de los estudios de Hollywood. A pesar de estar disponible solo mediante invitación, la plataforma ha escalado rápidamente en las listas de descargas, gracias a su función estrella: los cameos, que permiten a los usuarios incorporar su propio rostro en videos generados por inteligencia artificial.

Sin embargo, el entusiasmo ha venido acompañado de una creciente preocupación por los derechos de autor. Usuarios han comenzado a generar contenido que incluye personajes famosos como Pikachu o Bob Esponja, sin la aprobación previa de los estudios propietarios de estas franquicias. Este uso no autorizado ha generado reacciones mixtas, entre la fascinación por las posibilidades creativas y la inquietud legal por el uso indebido de propiedad intelectual.

De modelo de exclusión a sistema de inclusión con control granular

En sus primeras conversaciones con estudios y agencias, OpenAI adoptó una postura discutible: quienes no quisieran que su propiedad intelectual se utilizara en Sora, debían manifestarlo expresamente, lo que se conoce como un modelo de opt-out. Es decir, si no decías que no, se asumía que estabas de acuerdo.

Esa estrategia ha comenzado a cambiar. Sam Altman, CEO de OpenAI, anunció en una publicación reciente que están trabajando en un sistema de controles más detallados y voluntarios, o modelo opt-in, que requerirá la aprobación explícita de los titulares de derechos antes de permitir el uso de sus personajes o contenidos.

Este giro no solo representa una forma de apaciguar a los estudios, sino que también abre la puerta a una colaboración potencialmente lucrativa entre creadores de contenido, usuarios y dueños de IP. Como lo explicó Altman, hay empresas que están interesadas en este nuevo tipo de «fan fiction interactiva» y buscan definir cómo y cuándo se pueden usar sus personajes, o incluso prohibir su uso por completo.

Implicaciones legales y culturales del contenido generado con IA

La promesa de que cualquiera pueda crear historias con personajes icónicos suena atractiva, pero también abre una caja de Pandora legal. Por un lado, los fans celebran la posibilidad de dar vida a narrativas que antes solo podían imaginar. Por otro, los estudios tienen razones válidas para preocuparse por el uso comercial no autorizado de sus marcas.

Hay incluso videos en los que versiones generadas por IA de Pikachu o Bob Esponja critican a OpenAI por su política de copyright. Estos casos, aunque anecdóticos, reflejan un fenómeno cultural más amplio: la tecnología está transformando la relación entre creadores, audiencias y propietarios de contenido.

Hacia un modelo de monetización compartida

Junto con los controles de derechos, OpenAI también se prepara para introducir opciones de monetización dentro de Sora. Hasta ahora, la idea era cobrar a los usuarios en momentos de alta demanda por generar videos. Pero Altman ha insinuado que ese modelo podría ampliarse, incluyendo la posibilidad de compartir ingresos con los propietarios de derechos.

Esto podría traducirse en un escenario en el que los estudios obtienen beneficios económicos por permitir el uso de sus personajes en creaciones de usuarios. La comparación podría hacerse con las plataformas de música que pagan regalías por reproducción: cada vez que un personaje protegido aparezca en un video, podría generarse un pago proporcional al dueño de esa IP.

Altman ha expresado que esperan que el valor de la interacción y el compromiso de los usuarios con estos contenidos sea tan alto que los beneficios superen incluso al reparto de ingresos. Aun así, reconoce que ambos aspectos son relevantes y que buscarán equilibrarlos.

El reto de los casos límite y los filtros imperfectos

Aunque la intención de OpenAI es prevenir el uso no autorizado, Altman admite que algunos casos problemáticos podrán filtrarse. La dificultad de establecer filtros que detecten con precisión todos los usos indebidos es una limitación técnica bien conocida en el ámbito de la generación de contenido con IA.

Es como poner un filtro en una red de pesca: siempre existe la posibilidad de que algo se cuele. Estos «casos límite» podrán implicar el uso de personajes modificados apenas lo suficiente para eludir los filtros automáticos o situaciones en las que la autoría del contenido resulte ambigua.

El futuro de la creación audiovisual personalizada

Sora representa una nueva etapa en la creación audiovisual, donde los usuarios no solo consumen contenido, sino que lo crean activamente, combinando tecnología, narrativa personal y elementos culturales populares. El reto está en encontrar un equilibrio justo entre libertad creativa y respeto por los derechos de autor.

Al igual que ocurrió con la música en la era de Napster y Spotify, el contenido generado por IA está obligando a replantear modelos de negocio, mecanismos de control y vías de colaboración entre tecnología y cultura. Las decisiones que OpenAI tome hoy con Sora podrían sentar precedentes para el futuro de toda la industria del entretenimiento.