ProducerAI se integra en Google Labs: así quiere Google acercar la IA musical a creadores y curiosos

Publicado el

IA componiendo música con guitarra flotante y cuerdas oníricas en estilo surrealista

Google ha decidido incorporar ProducerAI a Google Labs, su escaparate de proyectos experimentales, con una idea clara: que crear música con IA generativa sea tan directo como explicar lo que tienes en la cabeza. Según contó TechCrunch, ProducerAI permite escribir peticiones en lenguaje natural del tipo “haz un beat lofi” y obtener un resultado sonoro, como si estuvieras dando instrucciones a un productor paciente que prueba variaciones sin agotarse (TechCrunch).

La propuesta suena familiar para cualquiera que haya usado un chatbot: tú describes, el sistema interpreta y responde. La diferencia es que aquí la respuesta no es texto, sino audio. Es como pedir en una cafetería “un café con leche, poco azúcar y espuma” y que el barista te devuelva exactamente ese matiz, solo que el barista es un modelo y la bebida es una base musical.

Lyria 3, el motor de DeepMind que se cuela en el estudio

Detrás de ProducerAI está Lyria 3, el modelo de generación musical de Google DeepMind. La clave no es solo que convierta texto en música; también puede aceptar entradas de imagen para producir audio, algo que apunta a un futuro en el que una foto, un póster o incluso una paleta de colores puedan servir como “estado de ánimo” para una pieza musical (Google DeepMind, según la información recogida por TechCrunch).

Google ya había anunciado que las capacidades de Lyria 3 llegarían a la app Gemini, su producto más visible de IA. ProducerAI, sin embargo, se presenta como una capa distinta: no busca únicamente “generar”, sino fomentar una dinámica de ida y vuelta que Google describe como más cercana a una colaboración creativa. Elias Roman, directivo de producto en Google Labs, lo expresó en esa línea al hablar de la herramienta como un “compañero de colaboración” para experimentar con mezclas de géneros o crear canciones personalizadas para situaciones cotidianas (Google).

Traducido a la vida real: no es lo mismo pedir un plato cerrado que cocinar con alguien. En el primer caso, aceptas lo que llega. En el segundo, pruebas, corriges, ajustas el punto de sal. Esa metáfora de “cocina creativa” es justo la narrativa que Google intenta reforzar con ProducerAI.

Music AI Sandbox y el ejemplo de Wyclef Jean: la IA como instrumento, no como sustituto

Para mostrar que esto no va solo de demos para redes, Google también destacó el uso de Music AI Sandbox y de Lyria 3 por parte del rapero Wyclef Jean, ganador de tres Grammy, en su tema “Back From Abu Dhabi” (Google, TechCrunch). En un vídeo citado en la pieza, Jeff Chang, director de producto en Google DeepMind, insistía en que el proceso se parece más a una selección cuidadosa que a apretar un botón cien veces. La imagen es útil: es como revisar tomas en un estudio, escoger fragmentos que encajan y descartar el resto.

El propio Jean ponía un ejemplo muy concreto y fácil de imaginar: querer saber cómo sonaría una flauta dentro de una pista ya grabada y poder añadir ese timbre de forma rápida con las herramientas de Google. Aquí la IA se entiende como una “caja de instrumentos” que puedes abrir cuando te falta un sonido o cuando quieres explorar sin llamar a un músico a las dos de la mañana. Jean remataba con una frase que funciona como lema cultural del momento: el humano aporta “alma” y la IA aporta “información infinita” (Google, TechCrunch).

La tensión de fondo: creatividad, consentimiento y datos con copyright

El anuncio llega en un contexto incómodo para la industria musical. Una parte importante de artistas ha rechazado con fuerza el avance de herramientas de música generada por IA, sobre todo por una sospecha difícil de ignorar: que los modelos se entrenan con obras protegidas por derechos de autor sin permiso. TechCrunch recordaba una carta abierta firmada en 2024 por cientos de músicos —entre ellos Billie Eilish, Katy Perry o Jon Bon Jovi— pidiendo a las tecnológicas que no socaven la creatividad humana con este tipo de sistemas (carta abierta citada por TechCrunch).

El debate no es solo ético; también es legal y económico. Si una IA aprende de millones de canciones sin licencia, ¿quién está pagando el “curso” que recibe el modelo? En otras industrias se entiende rápido con un ejemplo doméstico: si montas una academia que fotocopia libros sin comprarlos, el problema no es que enseñes; es cómo conseguiste el material.

Demandas, acuerdos y una ley que todavía no da respuestas claras

En el terreno judicial, el texto citado por TechCrunch mencionaba una demanda de editoriales musicales contra Anthropic por miles de millones, alegando la descarga ilegal de decenas de miles de canciones, partituras y composiciones para entrenamiento. También señalaba que, en otro caso relacionado con libros, la empresa habría sido ordenada a ofrecer un acuerdo millonario con autores por uso de obras pirateadas como datos de entrenamiento (TechCrunch).

La fotografía legal, tal y como se contaba, sigue siendo borrosa: un juez federal, William Alsup, habría sostenido que entrenar con material con copyright puede ser legal, pero piratearlo no lo es. Esa distinción es importante porque separa dos preguntas que suelen mezclarse. Una es si el “aprendizaje” del modelo es un uso permitido. Otra, muy distinta, es si la obtención de los datos respetó la ley. Es como aceptar que puedas estudiar un estilo pictórico mirando cuadros en un museo, pero no permitir que entres por la noche a robarlos para montar tu propia exposición.

No todo es composición: la IA también se usa para “limpiar” y restaurar audio

Mientras una parte de músicos rechaza la IA como herramienta creativa, otros la aceptan cuando actúa como un técnico de sonido más que como compositor. TechCrunch recordaba el caso de Paul McCartney, que usó sistemas de reducción de ruido con IA para mejorar un demo antiguo de John Lennon; ese trabajo derivó en “Now and Then”, presentado como un nuevo tema de The Beatles que ganó un Grammy en 2025 (TechCrunch). La comparación con una videollamada es útil: igual que Zoom o FaceTime eliminan el ruido de fondo para que se entienda la voz, estos sistemas intentan rescatar claridad de grabaciones imperfectas.

Esta diferencia de usos explica por qué el debate está tan polarizado. Para muchos, “restaurar” se percibe como conservación. “Generar” se percibe como reemplazo. ProducerAI cae más cerca del segundo lado, aunque Google lo envuelva en el lenguaje de la colaboración.

El efecto Suno y el nuevo escenario: canciones sintéticas que compiten en plataformas

TechCrunch también mencionaba que herramientas como Suno han producido música sintética capaz de sonar lo bastante real como para colarse en rankings de Spotify o Billboard, junto al caso de una usuaria que habría convertido poemas en una canción viral y firmado un contrato discográfico millonario (TechCrunch). Más allá de los detalles de cada historia, el mensaje es claro: la barrera de entrada para crear una canción “publicable” se está acercando a la facilidad de escribir un prompt.

Eso abre posibilidades genuinas para creadores sin recursos técnicos, igual que las cámaras de móvil democratizaron el vídeo. También trae efectos secundarios: saturación de catálogos, dificultades para atribuir autoría, presión sobre músicos emergentes y un mercado donde distinguir “hecho por alguien” y “hecho por algo” puede volverse cada vez menos obvio.

Qué busca Google Labs con ProducerAI: experimentar sin prometer certezas

Que ProducerAI aterrice en Google Labs no es un detalle menor. Labs funciona como un laboratorio público donde Google prueba productos, mide interés y ajusta límites. Es una forma de decir: “esto está en exploración”. En un terreno tan delicado como la IA musical, ese marco le permite a la compañía iterar rápido, observar reacciones y, si hace falta, cambiar el enfoque.

La incógnita relevante no es solo técnica, sino cultural: si estas herramientas terminan siendo un bloc de notas musical para ideas rápidas, un asistente para arreglos y texturas, o una máquina de fabricar canciones en serie. La dirección que tome dependerá tanto del diseño del producto como de las reglas del juego sobre derechos de autor, licencias y transparencia sobre los datos de entrenamiento. Lo que hoy parece un “copiloto” puede sentirse mañana como un competidor, según quién esté al otro lado del micrófono.