Elon Musk admite bajo juramento que xAI usó destilación con modelos de OpenAI para entrenar Grok: la práctica que las grandes IA acusan a China de hacer

Publicado el

Elon Musk admite bajo juramento que xAI usó destilación con modelos de OpenAI para entrenar Grok: la práctica que las grandes IA acusan a China de hacer

Elon Musk acaba de confirmar bajo juramento lo que la industria sospechaba pero nadie había admitido públicamente. Lo cuenta Tim Fernholz en TechCrunch este 30 de abril. En el juicio civil federal de California que enfrenta a Musk con OpenAI, Sam Altman y Greg Brockman, el preguntante directo planteó si xAI había usado técnicas de destilación con modelos de OpenAI para entrenar Grok. Musk respondió que es «práctica general entre compañías de IA». Cuando se le preguntó si eso significaba «sí», contestó: «Partly». Parcialmente, sí.

La admisión es importante porque hasta hoy la conversación sobre destilación se había centrado casi exclusivamente en firmas chinas. OpenAI y Anthropic llevaban meses denunciando públicamente que laboratorios como DeepSeek, Moonshot AI y MiniMax estaban usando esta técnica para entrenar modelos open-weight casi tan capaces como los americanos a una fracción del coste. La narrativa pública era: «ellos roban, nosotros invertimos». Hoy Musk acaba de confirmar que las dos cosas no se excluyen.

Qué es destilación y por qué importa

La destilación de modelos consiste en consultar sistemáticamente un modelo de IA (a través de su chatbot público o su API) con grandes volúmenes de prompts diseñados para extraer las capacidades que diferencian al modelo. Las respuestas obtenidas se usan después como datos sintéticos para entrenar un modelo nuevo. El resultado es un modelo derivado que captura una parte significativa del rendimiento del original, sin haber tenido que pagar el coste enorme de entrenamiento desde cero.

El proceso amenaza directamente la ventaja competitiva de los frontier labs. Si OpenAI gasta cientos de millones entrenando GPT-5 con datos propios y compute infrastructure, y otro actor puede replicar el 70-80 por ciento del rendimiento por un orden de magnitud menos invirtiendo en consultas API, el moat de OpenAI se evapora. La destilación no es explícitamente ilegal, pero típicamente viola los términos de servicio que las compañías establecen sobre el uso de sus productos.

Anthropic ha sido especialmente vocal sobre destilación. En febrero de 2026 publicó un comunicado denunciando campañas a «escala industrial» para extraer capacidades de Claude, atribuidas a tres laboratorios chinos: DeepSeek, Moonshot AI y MiniMax. Más de 16 millones de intercambios con Claude generados a través de unas 24.000 cuentas fraudulentas, violando términos de servicio y restricciones regionales. El patrón era coordinado y orientado a capturar lo que diferencia a Claude: razonamiento agentivo, uso de herramientas y código.

El contexto del juicio: Musk vs Altman ya en su segunda semana

La admisión de Musk no llega aislada. El juicio civil entre Musk y OpenAI arrancó el 28 de abril en el juzgado federal de Oakland, California. Musk acusa a Sam Altman, Greg Brockman y Microsoft de haber traicionado la misión original de OpenAI como organización sin ánimo de lucro al transformarla en estructura corporativa con ánimo de lucro. Las cifras en juego son significativas: hasta 134.000 millones de dólares en daños (que pide se devuelvan a la fundación nonprofit, no a él), la destitución de Altman y Brockman, y la reversión de la estructura corporativa.

El juicio tiene tres semanas de duración previstas y la jueza Yvonne Gonzalez Rogers preside. Hay una fase de responsabilidad para decidir si hubo wrongdoing, y si lo hubo, una fase de remedios para determinar daños y siguientes pasos. El veredicto del jurado de nueve personas es advisory, lo que significa que servirá de orientación a la jueza pero ella tomará la decisión final. El testimonio de Musk va a definir el resultado, y la admisión de destilación es el segundo movimiento tácticamente importante de la semana.

Qué dijo Musk exactamente y por qué importa

La pregunta directa fue si xAI había usado destilación con modelos de OpenAI para entrenar Grok. La respuesta de Musk: «es práctica general entre las empresas de IA». Cuando se le presionó para clarificar si eso significaba sí, dijo «partly». Es una admisión cualificada pero clara. Es la primera vez que un CEO de un frontier lab confirma públicamente y bajo juramento que su modelo se entrenó parcialmente con outputs de un competidor.

Más tarde en su testimonio, a Musk se le preguntó por una declaración del verano pasado en la que afirmó que xAI estaría pronto muy por delante de cualquier compañía excepto Google. Su respuesta fue rankear los proveedores de IA del mundo, situando a Anthropic en el primer puesto, seguido por OpenAI, Google y modelos chinos open-source. Caracterizó a xAI como «una compañía mucho más pequeña con solo unos pocos cientos de empleados». Es un reconocimiento implícito de que su producto está por debajo de la frontera, lo que hace más comprensible la decisión de usar destilación.

Las respuestas de Musk son interesantes en el contexto histórico de xAI. La compañía empezó en 2023, años después de OpenAI, y ha crecido rápido: Grok 3 fue entrenado con aproximadamente 100.000 GPUs en Memphis usando 10 veces más compute que Grok 2, alcanzando el nivel de modelos como GPT-4 y Gemini en pruebas comparativas. Pero la diferencia de tamaño con OpenAI (que tiene 50 millones de suscriptores de pago) sigue siendo de un orden de magnitud, y el shortcut de entrenar parcialmente con outputs de OpenAI explica parte de la velocidad de desarrollo.

La ironía del Frontier Model Forum

El detalle más amargo del relato es contextual. OpenAI, Anthropic y Google habían lanzado en abril una iniciativa formal a través del Frontier Model Forum para combatir intentos de destilación, especialmente desde China. Esto típicamente involucra consultas masivas sistemáticas para entender el funcionamiento interno de los modelos. Para parar los esfuerzos, los frontier labs estaban trabajando en prevenir consultas masivas sospechosas de los usuarios.

La ironía es que Musk acaba de admitir bajo juramento que xAI ha usado exactamente la técnica que el Frontier Model Forum estaba diseñado para combatir, pero contra OpenAI. La hipocresía no está en xAI individualmente sino en el sector: las grandes IA estadounidenses presentaban la destilación como amenaza china, cuando es una práctica también interna que minimizan en público.

Las acusaciones cruzadas sobre destilación entre frontier labs no son nuevas. En junio de 2025, varios desarrolladores e investigadores señalaron indicios de que el modelo R1-0528 de DeepSeek podría haber sido entrenado con salidas generadas por Gemini de Google. Sam Paeach, desarrollador australiano, hizo análisis comparativo demostrando que R1-0528 usa expresiones y palabras muy similares a Gemini 2.5 Pro. Nathan Lambert, investigador del instituto AI2, no descartó la práctica con un razonamiento revelador: «Si yo fuera DeepSeek, generaría montones de datos sintéticos usando el mejor modelo API disponible. Tienen dinero, pero no suficientes GPUs».

Por qué esto cambia el debate sobre IP y entrenamiento

La admisión de Musk va a cambiar el debate sobre IP en IA en tres direcciones simultáneas. Primero, debilita la posición legal de OpenAI y Anthropic cuando demanden a labs chinos por destilación: si su propio competidor estadounidense ha hecho lo mismo y nadie le ha demandado, la asimetría es jurídicamente difícil de defender. Segundo, refuerza la presión para que los frontier labs implementen rate-limiting y detección de patrones de consulta más agresivos, porque la cantidad de actores haciendo destilación es mayor de la admitida públicamente. Tercero, abre la puerta a que reguladores europeos cuestionen la legitimidad de entrenamientos de IA con outputs de otras IAs, especialmente cuando esos outputs derivan a su vez de scraping de datos protegidos por copyright.

Hay también una ironía mayor: los frontier labs llevan dos años defendiendo sus prácticas de scraping masivo de internet (libros, artículos, código GitHub) bajo el argumento de «fair use para investigación». Si Musk dice que la destilación de modelos es «práctica general», entonces los argumentos de fair use deben aplicar también a la destilación. Y si no aplican, la posición de OpenAI y Anthropic sobre su propio scraping queda vulnerable.

Mi valoración

La admisión de Musk es uno de los momentos más reveladores del juicio Musk vs Altman, y probablemente el momento más importante del año para entender cómo se entrenan realmente los modelos de IA. Lo que más me convence del análisis es la coherencia con el comportamiento histórico del sector. La destilación entre frontier labs era el secret a voces de la industria, y Musk acaba de convertirlo en testimonio bajo juramento. Eso permite que la conversación pública por fin se ajuste a la realidad técnica: la frontera competitiva en IA no es solo cuestión de compute y datos propios, también es cuestión de quién copia mejor a quién. Lo que más me preocupa es lo que la admisión sugiere sobre los términos de servicio. Si xAI ha entrenado Grok partly con outputs de OpenAI violando términos de servicio, y nadie de OpenAI ha reaccionado legalmente durante dos años, eso establece un precedente práctico de que los TOS no se aplican entre frontier labs. La implicación es que la propiedad intelectual sobre outputs de IA es esencialmente ficticia: cualquier compañía con capacidad técnica puede destilar sin consecuencias prácticas, y solo los actores chinos enfrentan retórica adversarial. Esa asimetría en la enforcement va a ser jurídicamente cuestionada en los próximos 18 meses, probablemente por DeepSeek o Moonshot defendiéndose con el argumento de Musk. Lo más estructuralmente significativo es lo que la admisión dice sobre el moat real de los frontier labs. Si destilar GPT-5 produce un modelo casi tan capaz a un coste 10 veces menor, y la práctica está extendida, entonces el verdadero moat de OpenAI no son sus modelos sino su distribución (50 millones de suscriptores, integración con Apple, acuerdos enterprise). Anthropic tiene un moat similar en el segmento empresarial. Google tiene su propio canal en Android. Pero compañías como xAI, sin distribución consumer comparable, dependen estructuralmente de destilar para mantener competitividad técnica. La pregunta a 12 meses no es si la destilación va a parar (no lo va a hacer, es demasiado coste-efectiva) sino si los frontier labs van a desplegar mecanismos técnicos efectivos contra ella. Mi predicción es que veremos rate-limiting más agresivo en APIs, detección por patrones de queries, y posiblemente diferenciación entre tiers de API (con tier «trusted» que ofrezca outputs raw y tier «open» con outputs filtrados para evitar destilación). Pero la batalla técnica está perdida de fondo: cualquier compañía con presupuesto de millones puede destilar, y ninguna defensa técnica resiste indefinidamente a un atacante con recursos.

Preguntas frecuentes

¿Qué dijo exactamente Elon Musk? Cuando se le preguntó si xAI usó destilación con modelos de OpenAI para entrenar Grok, respondió que es «práctica general entre las empresas de IA». Cuando se le presionó para clarificar si eso significaba «sí», contestó: «Partly». Es una admisión cualificada pero pública y bajo juramento, en el juicio civil federal de California Musk vs Altman.

¿Es ilegal la destilación? No explícitamente. La destilación de modelos no está expresamente prohibida por ley, pero típicamente viola los términos de servicio que las compañías establecen sobre el uso de sus productos. La consecuencia práctica suele ser cierre de cuentas y posibles demandas civiles, no acción penal. La diferencia entre la posición legal y la posición ética es exactamente lo que el caso de Musk visibiliza.

¿Qué es el Frontier Model Forum? Iniciativa lanzada por OpenAI, Anthropic y Google para coordinar respuestas frente a riesgos de IA, incluyendo destilación. La ironía señalada por la admisión de Musk es que xAI no es miembro y los miembros del Forum son los que típicamente acusan a labs chinos de destilación, mientras una compañía estadounidense (xAI) está confirmando hacer lo mismo.