La ELA le quitó la voz a un músico. La IA le devolvió la posibilidad de cantar

Publicado el

noticia2_ai_voice

Para muchos músicos, la voz no es solo un instrumento: es una huella dactilar emocional. Patrick Darling, compositor y cantante, lo comprobó de la forma más dura cuando fue diagnosticado con esclerosis lateral amiotrófica (ELA) a los 29 años. La ELA, un tipo de enfermedad de la neurona motora, afecta a los nervios que controlan los músculos y, con el tiempo, puede arrebatar funciones tan básicas como mover las manos, hablar o respirar. En su caso, la pérdida fue doble: dejó de poder sostener instrumentos y terminó quedándose sin la capacidad de cantar, justo aquello que más amaba.

Sus compañeros del grupo, la Ceili House Band, empezaron a notar cambios sutiles que luego se volvieron imposibles de ignorar. Según recuerda el músico Nick Cocking, primero llegó la torpeza: tropiezos, caídas, una forma de caminar que ya no parecía la misma. Después, el deterioro se coló en el escenario. Darling pasó de tocar de pie a tener que sentarse en plena actuación; más tarde, sus manos dejaron de responderle y la guitarra, el banjo o el resto de instrumentos se convirtieron en objetos casi “ajenos”, como si pertenecieran a otra vida.

En abril de 2024, cantar y hablar ya competían con respirar. Para una actuación, el grupo tuvo que llevarlo en brazos hasta el escenario. Al día siguiente, Darling asumió lo que su cuerpo llevaba tiempo anunciando: no podía seguir. En junio de 2024, la banda dejó de tocar junta. La ELA había impuesto silencio.

“Bancar” la voz: guardar un timbre antes de que cambie

Cuando alguien se enfrenta a una enfermedad que amenaza el habla, existe una opción conocida como banca de voz: grabar muchas frases mientras aún se puede, para generar un sistema de comunicación asistida que reproduzca sonidos a partir de texto. Es una idea parecida a congelar alimentos para más adelante: se almacena material “en buen estado” para cuando falte.

El problema es que, para Darling, la propuesta llegó tarde. Su voz ya había cambiado y la sensación era inquietante: ¿de qué sirve “guardar” una versión que ya no te representa? A esto se sumaba un detalle que aparece una y otra vez en la tecnología de voz tradicional: el resultado puede sonar correcto, pero artificial, como un GPS emocionalmente plano. La herramienta cumple, sí, pero a veces deja a la persona con la impresión de estar oyéndose desde fuera.

Aquí es donde entra la segunda vía: no tanto almacenar muchas grabaciones perfectas, sino reconstruir una voz desde fragmentos previos, aunque no sean ideales.

Clonación de voz: reconstruir un “yo” a partir de retazos

El puente hacia esa posibilidad llegó a través de un terapeuta del habla: Richard Cave, investigador en University College London y consultor de ElevenLabs, empresa centrada en herramientas de audio y voz. Cave trabajó con Darling para crear un clon de voz a partir de grabaciones antiguas. La idea es casi doméstica: como recomponer una taza rota con pedazos que quedaron en un cajón. No se fabrica una taza nueva; se intenta recuperar la forma original con lo que se conserva.

Según contó Darling en un evento de ElevenLabs en Londres, la primera vez que escuchó su voz reconstruida sintió asombro: era la voz de “antes”, con matices que reconocía como propios. El detalle humano aparece incluso en la anécdota: la primera palabra que hizo decir a su nueva voz no fue precisamente solemne, un recordatorio de que recuperar el habla también significa recuperar espontaneidad, humor y carácter.

ElevenLabs lanzó un programa de impacto para ofrecer licencias gratuitas a personas que han perdido la voz por ELA u otras causas, como cáncer de cabeza y cuello o ictus. La iniciativa, explicada por la terapeuta del habla Gabi Leibowitz —quien lidera el programa—, no promete devolver movilidad ni resolver problemas físicos complejos asociados a la enfermedad. El foco está en otra dimensión: permitir que alguien vuelva a “hacer cosas” con su voz, crear, trabajar, participar.

Cantar sin cuerdas vocales: cuando el reto no es hablar, sino interpretar

Hablar y cantar comparten aire, cuerdas vocales y resonancia, pero no son lo mismo. El canto exige control fino de tono, ritmo, emoción, ataques y silencios. Por eso, recuperar una voz cantada es un desafío mayor que recrear una voz hablada.

En el caso de Darling, la dificultad tenía una causa muy práctica: no contaba con grabaciones de alta calidad cantando. No había tomas limpias en estudio. El material disponible era el que suele quedar en la vida real: vídeos de móviles en pubs ruidosos, fragmentos caseros, algún registro improvisado en la cocina. Con ese “audio con migas”, el equipo logró generar una versión sintética de su canto.

Cave subraya un matiz interesante: el resultado no es perfecto, y eso es parte de su valor. En las grabaciones originales, Darling sonaba a veces rasposo, con notas ligeramente fuera de sitio. El clon conserva ese tipo de imperfecciones. Dicho de otra forma, no suena como un robot afinado al milímetro; suena como una persona. Es un punto clave para entender por qué estas tecnologías pueden ser emocionalmente potentes: no buscan una voz ideal, buscan una voz reconocible.

Darling lo describió con una frase que encaja con lo que muchas personas sienten al verse en una foto antigua: “suena como yo, pero como otra versión de mí”.

Eleven Music y la composición por indicaciones: de la idea a la canción

ElevenLabs también desarrolla Eleven Music, un generador musical que crea pistas a partir de indicaciones escritas, eligiendo estilo y estructura mediante texto. La promesa es tentadora: que una canción pueda “aparecer” en minutos. Pero el caso de Darling muestra el lado menos automático: el de la artesanía.

Aunque la herramienta puede producir un borrador rápido, él y Cave dedicaron alrededor de seis semanas a afinar la canción, ajustando dirección, matices y resultado final. Es una buena metáfora de lo que pasa con muchas IA creativas: pueden ser como una masa premezclada para hacer pan. Te ahorran parte del trabajo, pero si quieres algo que se parezca a tu receta, sigues amasando, probando, corrigiendo.

La personalización también tiene un componente cultural. Darling se mueve en el folk irlandés, mientras que Cave menciona haber trabajado con un usuario en Colombia que buscaba sonidos del folclore local. La herramienta, según la compañía, está disponible en decenas de idiomas, lo que apunta a un escenario donde la creación asistida no se limita al inglés ni a un solo mercado.

Volver al escenario: el momento en que la tecnología se vuelve presencia

La parte más difícil de contar no es técnica. Es humana. Cuando Cocking recibió el tema terminado, dijo que solo pudo escuchar unos segundos antes de parar, desbordado por la emoción. Le tomó varios intentos llegar al final. No era únicamente oír a un amigo “cantando” otra vez; era escuchar un timbre que la enfermedad había borrado del presente.

Con la actuación en mente, el grupo se reunió para un directo en la cumbre de ElevenLabs en Londres el 11 de febrero de 2026, dos años después de su última vez juntos. Cocking y el músico Hari Ma prepararon acompañamientos en mandolina y violín, ensayando con poco margen. En el escenario, Darling estuvo presente mientras sonaba la pista con su voz recreada y sus compañeros tocaron en vivo.

Hay algo profundamente simbólico en ese montaje: la voz llega por un canal tecnológico, el cuerpo está limitado por la enfermedad, pero la identidad artística ocupa el espacio completo. La tecnología no sustituye al músico; se convierte en el cable que conecta lo que aún quiere decir con lo que ya no puede emitir.

Lo que esta tecnología sí logra y lo que sigue siendo un límite

Ni ElevenLabs ni los terapeutas implicados lo plantean como una cura. La ELA sigue avanzando. Siguen existiendo desafíos físicos serios, desde la respiración hasta la deglución. El aporte está en otro terreno: la continuidad de la persona en lo social y lo creativo.

Para alguien que pierde la voz, recuperar un timbre propio puede marcar la diferencia entre “comunicar” y “expresarse”. Como explica Leibowitz, no se trata solo de hablar más rápido, sino de poder seguir trabajando, creando, participando en una vida con significado.

Esa distinción importa. Un sistema que solo “dice palabras” es útil; un sistema que suena a ti puede devolverte presencia. Y, en un contexto tan duro como una enfermedad neurodegenerativa, esa presencia puede ser una forma de resistencia íntima.

Identidad, consentimiento y uso responsable: el otro lado del espejo

La clonación de voz también abre preguntas inevitables. Si una voz puede recrearse con segundos de audio, el riesgo de suplantación existe. Por eso, el contexto médico y terapéutico exige marcos claros: consentimiento explícito, control por parte del usuario, transparencia sobre cuándo una voz es sintética.

El caso de Darling funciona porque hay algo que a menudo falta en los usos polémicos: intención alineada con la persona, acompañamiento clínico y un objetivo concreto de bienestar. Cuando la tecnología se usa para devolver agencia, la conversación cambia.

MIT Technology Review, que contó esta historia a través de la periodista Jessica Hamzelou, lo presenta como un ejemplo de cómo la inteligencia artificial aplicada a la voz puede tener impacto real en enfermedades que, hasta ahora, solo ofrecían alternativas limitadas para mantener la comunicación y la creación artística. La escena final —un músico en el escenario con su banda, aunque ya no pueda cantar con su cuerpo— deja una idea clara: no se trata de “engañar” al público, se trata de permitir que alguien siga siendo quien es, con nuevas herramientas.