El caso Anthropic y los derechos de autor: ¿pueden las letras de canciones alimentar a la inteligencia artificial?

Publicado el

Imagen conceptual en estilo surrealista y minimalista que representa el conflicto legal entre el uso de letras de canciones y el entrenamiento de modelos de inteligencia artificial como Claude. El fondo blanco y los elementos simbólicos refuerzan el debate sobre derechos de autor, uso justo y ética en IA.

El uso de obras protegidas por derechos de autor en la era de la inteligencia artificial está generando una tormenta legal que apenas comienza. La reciente victoria de Anthropic, empresa desarrolladora del chatbot Claude, frente a una demanda de grandes editoras musicales como Universal Music Group (UMG), ha encendido el debate sobre cómo debe entrenarse una IA y cuáles son los límites legales y éticos de ese proceso.

Desde wwwhatsnew.com llevamos tiempo observando con atención estos cruces entre innovación tecnológica y regulación. Este caso es uno de los más relevantes hasta la fecha, porque toca una fibra muy sensible: la de los creadores que ven sus obras utilizadas sin consentimiento, y la de las empresas tecnológicas que se amparan en el «uso justo» para entrenar a sus sistemas.

¿Qué ha pasado exactamente?

En 2023, un grupo de editoras musicales, entre ellas UMG, Concord y ABKCO, presentaron una demanda contra Anthropic, alegando que la empresa utilizó fragmentos de letras de al menos 500 canciones, incluyendo temas de Beyoncé, The Rolling Stones y The Beach Boys, para entrenar su modelo de lenguaje Claude.

La acusación principal es clara: el uso de esas letras se hizo sin licencia ni autorización, lo que según las editoras supone una violación de derechos de autor.

Sin embargo, esta semana la jueza federal Eumi Lee decidió no conceder la medida cautelar que pedía el bloqueo inmediato del uso de esas letras por parte de Anthropic. Según su razonamiento, los demandantes no lograron demostrar un daño irreparable ni la existencia de un perjuicio claro al mercado de licencias.

¿Qué significa «daño irreparable»?

En el mundo jurídico estadounidense, esta expresión hace referencia a un perjuicio tan grave que no puede compensarse económicamente. Por ejemplo, si la actuación de una empresa arruina para siempre una fuente de ingresos para un autor, o si se publica una obra robada antes de su lanzamiento oficial, se puede considerar que existe ese tipo de daño.

En este caso, la jueza consideró que no está demostrado que Claude haya sustituido el valor económico que las editoras obtendrían mediante licencias tradicionales. En otras palabras: no hay evidencia suficiente de que la IA esté desplazando a los sistemas de pago por uso de letras.

La clave: ¿es uso justo o infracción?

El concepto de “uso justo” (o fair use en inglés) es el corazón de este debate. Se trata de una excepción contemplada en la legislación de Estados Unidos que permite utilizar material con copyright sin permiso, siempre que se cumplan ciertos criterios: finalidad educativa, transformación de la obra, escaso impacto en el mercado original, entre otros.

Las empresas tecnológicas, como OpenAI, Meta o la propia Anthropic, argumentan que el entrenamiento de IA implica analizar grandes volúmenes de datos para aprender patrones de lenguaje, no para reproducir el contenido tal cual. Por eso defienden que su uso es transformador y por tanto legal.

Las editoras musicales, en cambio, sostienen que hay una diferencia entre leer para aprender (como haría un humano) y reproducir contenido protegido palabra por palabra en las respuestas de un chatbot. Y cuando ese contenido aparece en respuestas generadas, se cruza una línea roja.

¿Es lo mismo entrenar con letras que con libros o imágenes?

Aquí entramos en terreno pantanoso. A diferencia de una novela, que tiene miles de palabras, una canción suele estar compuesta por frases repetidas y muy identificables. Si una IA genera una respuesta que incluye un verso de “Let it Be” o “Single Ladies”, es fácil identificar la fuente y alegar infracción.

Esto hace que los casos relacionados con música sean especialmente delicados. Lo que está en juego no es solo el uso de datos para aprendizaje, sino también la posibilidad de que la IA reproduzca exactamente una parte protegida sin el permiso correspondiente.

La decisión judicial no cierra el caso

Es importante aclarar que esta decisión no es definitiva. Solo responde a una solicitud de medida cautelar. El juicio de fondo, que podría tardar meses o incluso años, sigue adelante. En esa instancia se analizará si Claude efectivamente infringió derechos de autor y si debe o no pagar compensaciones.

Desde wwwhatsnew.com creemos que este tipo de litigios marcarán la pauta para toda la industria de la IA en los próximos años. No se trata solo de música: hay demandas similares impulsadas por escritores, periodistas, artistas visuales y más.

¿Cómo se preparan las tecnológicas?

Muchas compañías están empezando a tomar medidas proactivas. Algunas están firmando acuerdos con empresas de medios para usar contenido con licencia. Otras están entrenando modelos únicamente con material de dominio público o generado artificialmente.

Anthropic, por ejemplo, ha defendido su postura diciendo que su uso es legítimo y que sus modelos están diseñados para evitar respuestas que violen derechos. Aún así, el solo hecho de que el caso haya llegado a los tribunales muestra que el sector necesita reglas más claras y consensuadas.

¿Y los creadores?

Desde el lado de los creadores, hay una creciente sensación de desprotección. Imagina que alguien se pasa años escribiendo letras, perfeccionando rimas, y de repente una IA las reproduce sin reconocimiento ni compensación. Es lógico que surja un reclamo.

En mi opinión, la solución no pasa por bloquear por completo el uso de contenido con derechos, sino por establecer un marco justo de licencias. Igual que Spotify paga a los músicos por cada reproducción, podría existir un sistema para pagar por el uso de letras, textos o imágenes en el entrenamiento de IA.

¿Qué podemos esperar en el futuro?

Estamos en una fase de transición. La ley, como suele ocurrir, va detrás de la tecnología. Pero es probable que en los próximos años veamos avances en varios frentes:

  • Nuevas legislaciones específicas sobre entrenamiento de IA

  • Sistemas de licencias colectivas para contenidos protegidos

  • Más transparencia por parte de las empresas tecnológicas

  • Modelos entrenados con datos 100% autorizados o generados artificialmente

Desde wwwhatsnew.com seguiremos de cerca estos desarrollos, porque afectan directamente a cómo entendemos la creatividad, la propiedad intelectual y el papel de la IA en nuestras vidas.