El crecimiento de los modelos de inteligencia artificial generativa ha sido posible gracias a una alimentación masiva de datos provenientes de libros, películas, imágenes, canciones e incluso publicaciones en redes sociales. Esta hambre de información, esencial para que la IA «aprenda», ha sido desde el inicio un tema candente en el ámbito legal. Pero la discusión ya no gira solamente en torno a lo que las máquinas consumen para entrenarse, sino a lo que producen.
Según un artículo reciente de Politico, especialistas en derecho de autor están poniendo el foco sobre el contenido que las herramientas de IA están generando. Ya no se trata solo del uso de obras protegidas como insumo, sino de las consecuencias legales de que una IA cree una versión visual casi exacta de personajes como SpongeBob o de escenas que imitan sin disimulo obras existentes.
«Uso justo» en tela de juicio
Hasta ahora, muchas empresas tecnológicas han logrado eludir consecuencias legales graves gracias a un concepto legal clave: el uso justo. Esta figura permite reutilizar material protegido por derechos de autor siempre que se transforme de forma significativa, por ejemplo, con fines educativos o de crítica. Las compañías de IA han argumentado que usan los datos para un aprendizaje transformador, sin replicar directamente las obras.
Sin embargo, esta defensa empieza a tambalear cuando los sistemas generan resultados que se asemejan demasiado a los originales. Pamela Samuelson, profesora de derecho de autor en la Universidad de California en Berkeley, explica que usar obras para entrenar un modelo se considera diferente a simplemente copiarlas. Pero cuando el resultado es una imagen gráfica reconocible, la situación se vuelve mucho más delicada.
La sensibilidad especial hacia lo visual
En los tribunales, las imágenes y los vídeos suelen recibir una protección legal más estricta que los textos. Esto se debe, en parte, a que se consideran formas más «expresivas» y fácilmente identificables. A diferencia de un artículo o un libro que puede inspirarse en cientos de fuentes y aun así ser considerado original, un personaje animado o una escena de una película puede ser reconocible de inmediato y, por tanto, más vulnerable a una demanda por infracción.
Este es el caso de las escenas generadas con IA que muestran a SpongeBob en contextos inadecuados, como laboratorios de metanfetaminas. El personaje, propiedad de Nickelodeon, ha generado más de 16.000 millones de dólares en ventas minoristas desde su creación. Es comprensible que cualquier uso no autorizado de su imagen sea visto como una amenaza directa a un negocio multimillonario.
Responsabilidad compartida: desarrolladores y usuarios en la mira
Un aspecto poco discutido pero relevante es que la responsabilidad legal no recaería solo sobre las empresas desarrolladoras de IA como OpenAI, sino también sobre los propios usuarios. Esto recuerda el famoso caso del Betamax de 1984, cuando la Corte Suprema de EE. UU. decidió que Sony no era responsable del uso que los consumidores daban a su videograbadora. No obstante, las circunstancias actuales son distintas, y los jueces podrían considerar que hay una participación activa por parte de los desarrolladores si sus modelos permiten o incluso facilitan la creación de contenido infractor.
El dilema legal está lejos de estar resuelto. Samuelson afirma que aún no hay una doctrina clara sobre si los desarrolladores de IA generativa son responsables por las infracciones cometidas a través de sus plataformas. Pero sólo hace falta que un editor, estudio o autor decida presentar una demanda contundente para abrir un nuevo capítulo legal.
Hollywood y las editoriales no se quedan de brazos cruzados
Varias agencias de talento y casas editoriales han comenzado a actuar. Según el Hollywood Reporter, algunas de ellas acusan a OpenAI de haber sido «deliberadamente engañosa» en sus comunicaciones privadas. En paralelo, autores que demandaron a la compañía lograron acceder a mensajes internos en Slack y correos electrónicos donde se discutía la eliminación de libros pirateados.
Este tipo de hallazgos podría ser devastador en una corte, al sugerir que no sólo hubo infracción, sino también intención de ocultarla. En un entorno donde la confianza en las plataformas tecnológicas ya está en declive, este tipo de revelaciones alimenta la narrativa de que la innovación se está llevando por delante las reglas del juego.
Cuando la IA se burla de los muertos y acosa a los vivos
Los problemas no acaban en la esfera del copyright. Con la llegada de herramientas como Sora 2, capaz de generar vídeos fotorrealistas, se han multiplicado los casos de abuso. Ya se han reportado situaciones donde la imagen de personas fallecidas ha sido manipulada para crear contenido ofensivo, y casos de acoso en los que se han fabricado vídeos falsos de víctimas usando su rostro.
La propia OpenAI tuvo que intervenir para prohibir los deepfakes de Martin Luther King Jr., tras una oleada de vídeos que usaban su imagen de forma irrespetuosa. Estas acciones refuerzan la sensación de que las empresas están reaccionando de forma tardía, intentando frenar un problema que ellas mismas han desencadenado.
Una tecnología que avanza más rápido que la ley
El caso de OpenAI y su complicada relación con el copyright es solo un síntoma de un problema más amplio: la legislación va varios pasos por detrás del desarrollo tecnológico. Mientras los ingenieros afinan modelos capaces de crear películas enteras, los tribunales siguen debatiendo si la extracción masiva de datos sin consentimiento puede considerarse legal.
En este terreno resbaladizo, no hay soluciones simples. La creatividad automatizada plantea preguntas profundas sobre propiedad intelectual, libertad de expresión, y responsabilidad. Lo que está claro es que tanto las empresas como los usuarios deben empezar a navegar este nuevo panorama con una mayor conciencia legal y ética.
