Elon Musk acaba de confirmar bajo juramento lo que la industria sospechaba pero nadie había admitido públicamente. Lo cuenta Tim Fernholz en TechCrunch este 30 de abril. En el juicio civil federal de California que enfrenta a Musk con OpenAI, Sam Altman y Greg Brockman, el preguntante directo planteó si xAI había usado técnicas de destilación con modelos de OpenAI para entrenar Grok. Musk respondió que es «práctica general entre compañías de IA». Cuando se le preguntó si eso significaba «sí», contestó: «Partly». Parcialmente, sí.
La admisión es importante porque hasta hoy la conversación sobre destilación se había centrado casi exclusivamente en firmas chinas. OpenAI y Anthropic llevaban meses denunciando públicamente que laboratorios como DeepSeek, Moonshot AI y MiniMax estaban usando esta técnica para entrenar modelos open-weight casi tan capaces como los americanos a una fracción del coste. La narrativa pública era: «ellos roban, nosotros invertimos». Hoy Musk acaba de confirmar que las dos cosas no se excluyen.
Qué es destilación y por qué importa
La destilación de modelos consiste en consultar sistemáticamente un modelo de IA (a través de su chatbot público o su API) con grandes volúmenes de prompts diseñados para extraer las capacidades que diferencian al modelo. Las respuestas obtenidas se usan después como datos sintéticos para entrenar un modelo nuevo. El resultado es un modelo derivado que captura una parte significativa del rendimiento del original, sin haber tenido que pagar el coste enorme de entrenamiento desde cero.
El proceso amenaza directamente la ventaja competitiva de los frontier labs. Si OpenAI gasta cientos de millones entrenando GPT-5 con datos propios y compute infrastructure, y otro actor puede replicar el 70-80 por ciento del rendimiento por un orden de magnitud menos invirtiendo en consultas API, el moat de OpenAI se evapora. La destilación no es explícitamente ilegal, pero típicamente viola los términos de servicio que las compañías establecen sobre el uso de sus productos.
El contexto del juicio: Musk vs Altman ya en su segunda semana
La admisión de Musk no llega aislada. El juicio civil entre Musk y OpenAI arrancó el 28 de abril en el juzgado federal de Oakland, California. Musk acusa a Sam Altman, Greg Brockman y Microsoft de haber traicionado la misión original de OpenAI como organización sin ánimo de lucro al transformarla en estructura corporativa con ánimo de lucro. Las cifras en juego son significativas: hasta 134.000 millones de dólares en daños (que pide se devuelvan a la fundación nonprofit, no a él), la destitución de Altman y Brockman, y la reversión de la estructura corporativa.
Qué dijo Musk exactamente y por qué importa
La pregunta directa fue si xAI había usado destilación con modelos de OpenAI para entrenar Grok. La respuesta de Musk: «es práctica general entre las empresas de IA». Cuando se le presionó para clarificar si eso significaba sí, dijo «partly». Es una admisión cualificada pero clara. Es la primera vez que un CEO de un frontier lab confirma públicamente y bajo juramento que su modelo se entrenó parcialmente con outputs de un competidor.
Más tarde en su testimonio, a Musk se le preguntó por una declaración del verano pasado en la que afirmó que xAI estaría pronto muy por delante de cualquier compañía excepto Google. Su respuesta fue rankear los proveedores de IA del mundo, situando a Anthropic en el primer puesto, seguido por OpenAI, Google y modelos chinos open-source. Caracterizó a xAI como «una compañía mucho más pequeña con solo unos pocos cientos de empleados». Es un reconocimiento implícito de que su producto está por debajo de la frontera, lo que hace más comprensible la decisión de usar destilación.
La ironía del Frontier Model Forum
El detalle más amargo del relato es contextual. OpenAI, Anthropic y Google habían lanzado en abril una iniciativa formal a través del Frontier Model Forum para combatir intentos de destilación, especialmente desde China. Esto típicamente involucra consultas masivas sistemáticas para entender el funcionamiento interno de los modelos. Para parar los esfuerzos, los frontier labs estaban trabajando en prevenir consultas masivas sospechosas de los usuarios.
La ironía es que Musk acaba de admitir bajo juramento que xAI ha usado exactamente la técnica que el Frontier Model Forum estaba diseñado para combatir, pero contra OpenAI. La hipocresía no está en xAI individualmente sino en el sector: las grandes IA estadounidenses presentaban la destilación como amenaza china, cuando es una práctica también interna que minimizan en público.
Por qué esto cambia el debate sobre IP y entrenamiento
La admisión de Musk va a cambiar el debate sobre IP en IA en tres direcciones simultáneas. Primero, debilita la posición legal de OpenAI y Anthropic cuando demanden a labs chinos por destilación: si su propio competidor estadounidense ha hecho lo mismo y nadie le ha demandado, la asimetría es jurídicamente difícil de defender. Segundo, refuerza la presión para que los frontier labs implementen rate-limiting y detección de patrones de consulta más agresivos, porque la cantidad de actores haciendo destilación es mayor de la admitida públicamente. Tercero, abre la puerta a que reguladores europeos cuestionen la legitimidad de entrenamientos de IA con outputs de otras IAs, especialmente cuando esos outputs derivan a su vez de scraping de datos protegidos por copyright.
Hay también una ironía mayor: los frontier labs llevan dos años defendiendo sus prácticas de scraping masivo de internet (libros, artículos, código GitHub) bajo el argumento de «fair use para investigación». Si Musk dice que la destilación de modelos es «práctica general», entonces los argumentos de fair use deben aplicar también a la destilación. Y si no aplican, la posición de OpenAI y Anthropic sobre su propio scraping queda vulnerable.
Mi valoración
La admisión de Musk es uno de los momentos más reveladores del juicio Musk vs Altman, y probablemente el momento más importante del año para entender cómo se entrenan realmente los modelos de IA. Lo que más me convence del análisis es la coherencia con el comportamiento histórico del sector. La destilación entre frontier labs era el secret a voces de la industria, y Musk acaba de convertirlo en testimonio bajo juramento. Eso permite que la conversación pública por fin se ajuste a la realidad técnica: la frontera competitiva en IA no es solo cuestión de compute y datos propios, también es cuestión de quién copia mejor a quién. Lo que más me preocupa es lo que la admisión sugiere sobre los términos de servicio. Si xAI ha entrenado Grok partly con outputs de OpenAI violando términos de servicio, y nadie de OpenAI ha reaccionado legalmente durante dos años, eso establece un precedente práctico de que los TOS no se aplican entre frontier labs. La implicación es que la propiedad intelectual sobre outputs de IA es esencialmente ficticia: cualquier compañía con capacidad técnica puede destilar sin consecuencias prácticas, y solo los actores chinos enfrentan retórica adversarial. Esa asimetría en la enforcement va a ser jurídicamente cuestionada en los próximos 18 meses, probablemente por DeepSeek o Moonshot defendiéndose con el argumento de Musk. Lo más estructuralmente significativo es lo que la admisión dice sobre el moat real de los frontier labs. Si destilar GPT-5 produce un modelo casi tan capaz a un coste 10 veces menor, y la práctica está extendida, entonces el verdadero moat de OpenAI no son sus modelos sino su distribución (50 millones de suscriptores, integración con Apple, acuerdos enterprise). Anthropic tiene un moat similar en el segmento empresarial. Google tiene su propio canal en Android. Pero compañías como xAI, sin distribución consumer comparable, dependen estructuralmente de destilar para mantener competitividad técnica. La pregunta a 12 meses no es si la destilación va a parar (no lo va a hacer, es demasiado coste-efectiva) sino si los frontier labs van a desplegar mecanismos técnicos efectivos contra ella. Mi predicción es que veremos rate-limiting más agresivo en APIs, detección por patrones de queries, y posiblemente diferenciación entre tiers de API (con tier «trusted» que ofrezca outputs raw y tier «open» con outputs filtrados para evitar destilación). Pero la batalla técnica está perdida de fondo: cualquier compañía con presupuesto de millones puede destilar, y ninguna defensa técnica resiste indefinidamente a un atacante con recursos.
Preguntas frecuentes
¿Qué dijo exactamente Elon Musk? Cuando se le preguntó si xAI usó destilación con modelos de OpenAI para entrenar Grok, respondió que es «práctica general entre las empresas de IA». Cuando se le presionó para clarificar si eso significaba «sí», contestó: «Partly». Es una admisión cualificada pero pública y bajo juramento, en el juicio civil federal de California Musk vs Altman.
¿Es ilegal la destilación? No explícitamente. La destilación de modelos no está expresamente prohibida por ley, pero típicamente viola los términos de servicio que las compañías establecen sobre el uso de sus productos. La consecuencia práctica suele ser cierre de cuentas y posibles demandas civiles, no acción penal. La diferencia entre la posición legal y la posición ética es exactamente lo que el caso de Musk visibiliza.
¿Qué es el Frontier Model Forum? Iniciativa lanzada por OpenAI, Anthropic y Google para coordinar respuestas frente a riesgos de IA, incluyendo destilación. La ironía señalada por la admisión de Musk es que xAI no es miembro y los miembros del Forum son los que típicamente acusan a labs chinos de destilación, mientras una compañía estadounidense (xAI) está confirmando hacer lo mismo.
