Gemini Lyria: Google se mete en el negocio de la generación musical con IA
En los últimos años hemos visto nacer muchos motores de generación musical basados en IA, así que uno más no debería suponer una sorpresa para nadie. Pero si es un gigante como Google el que decide meter la patita en un mercado, la cosa se vuelve bastante más relevante, porque es uno de esos actores que, aunque no lo logren siempre, sí tienen la capacidad y los medios para hacer que, como mínimo, las cosas se pongan interesantes. Y ese es el contexto en el que aparece Lyria, el nuevo motor de música generativa integrado en Google Gemini, y que llega con la promesa de abordar algunos de los problemas más persistentes del audio generado por inteligencia artificial.
Los dos pilares de Lyria: coherencia musical y control técnico
[Índice]Uno de los grandes retos de la música generada por IA es mantener la continuidad estructural: que un estribillo suene igual cada vez que aparece, que un ritmo no se desvíe o que una pieza de varios minutos conserve tono y escala. Lyria está diseñado precisamente para entender estas relaciones a largo plazo, evitando la típica sensación de “deriva” que aún se aprecia en muchos modelos actuales.
Otro punto clave de Lyria es el control multimodal. Gemini es capaz de interpretar conceptos musicales técnicos —desde “escala menor” o “4x4” hasta matices como “staccato” o “empaste”— y traducirlos en cambios concretos en la forma de onda. No solo entiende el qué (una canción de piratas), sino también el cómo (la técnica de producción que debe aplicarse).
A esto se suma un enfoque en la alta fidelidad. Lyria genera audio de forma nativa, sin recurrir a estiramientos o reconstrucciones de baja resolución, lo que reduce artefactos y apunta a una calidad apta para escucha profesional.
Aunque Google ha realizado adquisiciones y fichajes relevantes en el ámbito del audio, Lyria es un desarrollo interno de Google DeepMind. El modelo hereda la investigación iniciada con WaveNet en 2016, pero la lleva más allá para manejar la complejidad polifónica y tímbrica de una orquesta completa. También incorpora técnicas de difusión de audio y principios derivados de los Transformers —una arquitectura de IA especializada en procesar secuencias complejas, como texto o audio—, aplicados aquí para entender la relación entre instrumentos y capas sonoras.
Google afirma ademas haber entrenado Lyria con conjuntos de datos de alta calidad que incluyen música con licencia, con el objetivo de aprender estructuras y timbres sin vulnerar derechos. Además, el sistema incorpora SynthID, una marca de agua digital inaudible que permite identificar contenido generado por IA y evitar usos engañosos. La filosofía declarada es la de la colaboración: un “lienzo inteligente” para prototipar ideas musicales, nunca un sustituto del compositor.
Poniendo a prueba a Lyria
[Índice]Como es lógico, he querido probar las capacidades de Lyria ya que Google y Gemini están siempre tan a mano. Para ello, lo único que hay que hacer es entrar en Gemini y hacer clic en el botón "Crear música" de la parte inferior del cuadro de texto. Una vez dentro, el motor se comporta como cualquier otro basado en prompts. Así que introduje una instrucción en texto que quería que fuese relativamente sencilla pero no demasiado obvia, optando por:
Genera una canción tipo banda sonora épica para una película de piratas y aventuras, pero con un toque moderno y que algunos elementos (solo algunos) sean sintetizadores. Quiero que tenga percusión acústica muy intensa, tipo taikos japoneses.
Con eso, apenas un minuto después Gemini (o Lyria) me devolvió una pieza musical de 30 segundos que podéis escuchar en el siguiente enlace:
No puedo decir que estuviese mal, pero no era lo que tenía en mente. Sonaba a historia de aventuras, sí, pero más en plan "La historia interminable" y no tanto como a una trama de piratas. Así que me animé a darle un nuevo prompt, que os dejo a continuación, seguido del segundo corte de audio:
Partiendo de esa misma base, quiero cuerdas más oscuras (una escala menor más dura) y quiero metales por encima de las cuerdas.
Y he de decir, que este segundo intento ya me gustaba mucho más. Aun así, quise volver a poner a prueba el motor, y le di un tercer prompt que también os pego a continuación con su respectivo corte de 30 segundos de música:
Manteniendo la base como está, quiero que le des más presencia a los metales y que le imprimas un poco más de energía al conjunto.
Personalmente,he de admitir que me han sorprendido los resultados, que realmente me suenan a una composición musical bastante "orgánica". Pero me ha sorprendido más aún lo fácil que es comunicarse con el motor y lo bien que parece entender algunos conceptos, y además en español.
Por cierto, como apunte final, comentar tan solo que las portadas de los cortes se generan de forma automática mediante Nano Banana 2, otro de los motores de Google AI Studio.
Precio y disponibilidad
[Índice]Lyria todavía está en fase Beta, pero ya es accesible desde Google Gemini y permite crear fragmentos musicales a partir de prompts de texto. Las cuentas gratuitas están limitadas a cortes de unos 30 segundos, pero Google está implementando gradualmente capacidades para generar piezas más extensas (de hasta 3 minutos) a través de sus plataformas orientadas a desarrolladores y profesionales, como Google AI Studio o Vertex AI, donde el modelo permite un control más profundo sobre la estructura.
Más información: Gemini Lyria


