Google está ampliando el abanico creativo de la Gemini app con una función que hasta hace poco parecía reservada a estudios y músicos con horas de edición: la generación de música con IA. Según ha explicado la compañía en The Keyword, el despliegue llega en fase beta e integra Lyria 3, el modelo de música generativa más avanzado de Google DeepMind hasta la fecha. La idea es sencilla de entender aunque la tecnología sea compleja: tú aportas una intención —una frase, una imagen o un vídeo— y la app devuelve un tema de 30 segundos que suena “terminado”, con gancho y con estructura musical.
Conviene subrayar el enfoque: no se presenta como una herramienta para crear “la canción de tu vida”, sino como una forma rápida de poner banda sonora a momentos cotidianos. Es como tener un pequeño “cocinero musical” en el bolsillo: le dices si quieres algo dulce, picante o nostálgico, y te sirve una tapa sonora lista para compartir.
Qué aporta Lyria 3 frente a generaciones anteriores
Google destaca tres cambios que, en la práctica, determinan si una herramienta de música generativa se siente como un juguete curioso o como algo utilizable. El primero es que ya no necesitas escribir letra si no quieres: Lyria 3 puede generar letras a partir del prompt, lo que reduce la fricción para quienes tienen una idea pero no se ven componiendo versos. El segundo es el control creativo: se puede orientar el resultado hacia un estilo, un tipo de voz y un tempo concretos, afinando el “cómo” y no solo el “qué”. El tercero es la calidad musical, con pistas más realistas y complejas, lo que suele traducirse en mejores transiciones, arreglos más creíbles y menos sensación de bucle repetido.
Dicho en lenguaje de calle: en vez de pedir “hazme una canción triste” y cruzar los dedos, se parece más a decir “quiero una balada lenta, con voz suave y un estribillo que levante un poco”. El resultado, si cumple lo prometido, debería parecer menos una maqueta y más un clip que podrías usar como acompañamiento sin que chirríe.
De un texto, una foto o un vídeo a un tema de 30 segundos
La función se apoya en dos vías principales. La primera es “texto a pista”: escribes una descripción con género, humor interno, recuerdo o estado de ánimo, y la app genera un tema con letra o instrumental. En el ejemplo que comparte Google, se puede pedir un afrobeat alegre inspirado en recuerdos familiares y sabores de casa. Aquí lo interesante no es el ejemplo literal, sino el concepto: la IA intenta traducir sensaciones y referencias personales a decisiones musicales como ritmo, instrumentación y tono narrativo.
La segunda vía es “de foto o vídeo a pista”. Subes contenido visual y Gemini compone un tema que encaje con el ambiente, incluso incorporando letras relacionadas. Esto abre un uso muy de redes sociales: convertir una caminata con el perro, un viaje o una celebración en un clip con música “propia”. Es como esos filtros que te cambian la luz de una foto; solo que en lugar de saturación y contraste, estás ajustando percusión, armonía y fraseo.
El límite de 30 segundos también es una declaración de intenciones. Es la duración típica de un “bocado” de contenido, lo justo para un estado, un mensaje o un reel. Para quien espera canciones completas, se quedará corto; para quien quiere una banda sonora exprés, es una medida práctica.
Portada automática y compartir: el “sticker musical” del día a día
Otro detalle relevante es que cada pista viene con una carátula generada automáticamente por Nano Banana. Esto convierte el resultado en un objeto social listo para circular, casi como un sticker: audio breve, portada llamativa y opciones de compartir sin necesidad de editar nada fuera. Google también menciona que se puede descargar o compartir mediante enlace desde la propia experiencia.
Esta parte, aunque parezca secundaria, suele ser la diferencia entre una demo tecnológica y una función que la gente usa. Si crear música fuese como preparar una paella, muchos se animan una vez al año; si se parece más a calentar una tapa en el microondas, entra en la rutina.
Dream Track y el salto a YouTube Shorts
La misma tecnología de Lyria 3 también se está integrando en Dream Track de YouTube, orientado a creadores. Google señala que la disponibilidad empezó en Estados Unidos y se está extendiendo a creadores de otros países. El objetivo aquí no es tanto “crear una canción por diversión”, sino mejorar la banda sonora de YouTube Shorts con pistas personalizadas, ya sea generando un verso con letra o un acompañamiento instrumental con un “vibe” concreto.
Para quien publica con frecuencia, esto puede ahorrar tiempo y desbloquear ideas. En vez de buscar una pista que “más o menos” encaje, se podría encargar una que calce con el ritmo del vídeo y el tono del mensaje. La promesa es control y rapidez: dos cosas que, en creación de contenido, suelen valer oro.
Identificación y confianza: SynthID y la verificación de audio
Junto a la parte creativa, Google insiste en el componente de confianza. Los temas generados en la Gemini app incluyen SynthID, una marca de agua imperceptible diseñada para identificar contenido creado con IA. Esta tecnología ya se había asociado a imagen y vídeo, y ahora se amplía a verificación de audio dentro de la app. La propuesta es clara: subes un archivo y preguntas si fue generado con IA de Google; Gemini buscará la huella de SynthID y, apoyándose en su razonamiento, dará una respuesta.
Esto apunta a un problema real que ya se está colando en lo cotidiano: distinguir lo creado por una persona de lo creado por una máquina cuando ambos suenan “bien”. En términos prácticos, sería como llevar una linterna UV para billetes, pero en versión digital y aplicada al sonido. No elimina el riesgo de falsificaciones en general, pero sí aporta una señal verificable cuando el contenido ha pasado por herramientas de Google.
Derechos de autor y límites: cómo Google intenta evitar imitaciones
En su comunicación, Google recalca un punto delicado: Lyria 3 está pensada para expresión original y no para imitar artistas existentes. Si el prompt menciona a un artista concreto, la app lo toma como inspiración amplia para capturar un estilo o estado de ánimo, no como instrucción para copiar una voz o una obra. También se mencionan filtros para contrastar resultados con contenido existente, y la posibilidad de reportar si se considera que vulnera derechos propios o de terceros.
Aquí hay un equilibrio difícil. Por un lado, la gente pide referencias para explicar lo que quiere, igual que dices “un café como el de tal sitio” para orientar al barista. Por otro, el terreno legal y ético alrededor de la música es especialmente sensible, y Google asegura que ha trabajado con la comunidad musical y ha tenido cuidado con copyright y acuerdos de socios en el entrenamiento del modelo, citando experiencias previas como Music AI Sandbox.
Disponibilidad, idiomas y requisitos de uso
La beta de Lyria 3 llega a la Gemini app para usuarios mayores de 18 años y en varios idiomas, entre ellos español, inglés, alemán, francés, hindi, japonés, coreano y portugués. Google también indica que el despliegue comienza en escritorio y se extenderá a móvil en los días siguientes, y que los suscriptores Google AI Plus, Pro y Ultra tendrán límites de uso más altos.
El detalle de idiomas importa porque la música con letra depende de matices: rimas, acentos, expresiones y referencias culturales. Si la compañía amplía calidad y cobertura lingüística como promete, la diferencia se notará en letras menos “genéricas” y más naturales en cada idioma.
