DeepSeek ha publicado este 29 de abril su modelo V4 bajo licencia MIT, con mejoras notables en código y arquitectura diseñada para chips chinos. Lo cubre Javier Lacort en Xataka. La compañía también ha admitido, en su propio informe técnico, que va de tres a seis meses por detrás de los modelos occidentales punteros. Para un laboratorio que en enero de 2025 cambió la narrativa global de la IA con su modelo R1 (sacudió los mercados, cuestionó la lógica de las valoraciones tecnológicas estadounidenses y convenció a medio mundo de que China podía competir en la frontera de la IA a una fracción del coste), eso es mucho más que un matiz.
V4 no destruye ese relato, pero sí lo complica. El laboratorio más importante de China en IA llega con un modelo que sus propios ingenieros describen como un paso, no como un salto.
El contexto del retraso
V4 ha tardado más de lo esperado. Según fuentes del sector recogidas por 36Kr, DeepSeek sufrió un fallo grave de entrenamiento a mediados de 2025 mientras intentaba migrar su infraestructura de NVIDIA a los chips Ascend de Huawei. Las opiniones internas sobre la dirección técnica no estaban alineadas, y el fundador Liang Wenfeng impuso condiciones que resultaron difíciles de ejecutar. El resultado: meses de retraso y un modelo que, además, sigue sin ser multimodal, característica pospuesta por falta de capacidad de cómputo y de caja.
Las novedades técnicas: TileLang y MegaMoE
Lo más interesante de V4 está en la arquitectura. El modelo introduce TileLang, un lenguaje de dominio específico que permite desacoplar el código de bajo nivel de CUDA (el estándar de NVIDIA) y compilarlo para distintos chips. También incorpora MegaMoE, un kernel diseñado para reducir la latencia en paralelismo de expertos, que ya corre en hardware Ascend de Huawei.
La parte que conviene leer con cuidado es esta: el entrenamiento de V4 ha seguido usando GPUs NVIDIA. La independencia del hardware estadounidense que DeepSeek vende como una de sus diferenciaciones es, de momento, más una aspiración que un hecho consumado. La inferencia puede correr en chips chinos. El entrenamiento, por ahora, no.
El mercado chino se ha reorganizado sin DeepSeek
Mientras DeepSeek miraba hacia dentro, el ecosistema chino de IA se ha ido reorganizando sin esperarla. Doubao, de ByteDance, se ha convertido en el chatbot más descargado de China. MiniMax y Z.ai han salido a bolsa. Alibaba ha logrado una gran adopción gracias a aplicaciones verticales con su familia Qwen. DeepSeek nunca quiso construir un producto de consumo masivo y el mercado no la ha esperado.
La factura interna también ha llegado. El laboratorio ha perdido talento clave a manos de Tencent, ByteDance y Xiaomi en prácticamente todas las áreas técnicas. Liang Wenfeng rechazó ceder un 20 por ciento de la compañía a un gran inversor no identificado. Y ahora, por primera vez, DeepSeek abre una ronda de financiación externa. Es un cambio significativo respecto a la postura previa de mantener el control completo del laboratorio.
El golpe a la narrativa del open source chino
El daño más significativo del lanzamiento de V4 no es a DeepSeek; es a la narrativa más amplia del open source chino como alternativa real al modelo cerrado occidental. Un empleado de Qwen ha criticado abiertamente la mitología que se había construido alrededor de DeepSeek, sugiriendo que el laboratorio ha sido el principal beneficiario mediático de un trabajo colectivo que en realidad ha sido distribuido entre varios laboratorios chinos.
La crítica tiene base. La cifra de 6 millones de dólares de entrenamiento de V3 que se viralizó en enero de 2025 era el coste marginal del último entrenamiento (excluyendo investigación previa, infraestructura, talento). La capacidad de competir con la frontera occidental requería que el ritmo de progreso se mantuviera; V4 confirma que el ritmo no se ha mantenido y que el delta entre laboratorios chinos punteros y OpenAI/Anthropic/Google se ha ampliado en los últimos seis meses, no reducido.
Mi valoración
V4 es uno de esos lanzamientos que importan más por lo que admiten que por lo que aportan técnicamente. Lo que más me convence del análisis es que DeepSeek ha tenido la honestidad técnica de reconocer en su propio informe que va 3-6 meses por detrás. Es algo que ni OpenAI ni Anthropic harían públicamente sobre sí mismos. Esa transparencia es saludable para el ecosistema y útil para los desarrolladores que toman decisiones de adopción. La narrativa pública sobre IA china tiende a moverse en extremos (o «China va a superar a Estados Unidos en cualquier momento» o «China está irremediablemente atrasada») y el reconocimiento explícito de DeepSeek es una calibración necesaria. Lo que más me preocupa es la dependencia continuada de NVIDIA para entrenamiento. La promesa estratégica de DeepSeek y de China en general era que la combinación de optimización software + chips Ascend de Huawei iba a permitir entrenar modelos punteros sin acceso a hardware estadounidense. V4 demuestra que esa promesa todavía no se cumple. La inferencia puede correr en chips chinos, pero el entrenamiento real sigue requiriendo GPUs NVIDIA, y eso significa que las restricciones de exportación de chips siguen siendo un cuello de botella efectivo. Lo más estructuralmente importante es lo que el lanzamiento dice sobre la dinámica competitiva china. ByteDance está dominando con Doubao en consumer. Alibaba está dominando en empresarial con Qwen. MiniMax y Z.ai han hecho IPO con valoraciones significativas. DeepSeek, que era el laboratorio insignia hace 18 meses, ahora está abriendo una ronda externa por necesidad y perdiendo talento clave. La consolidación del sector de IA chino está pasando rápidamente y DeepSeek puede acabar siendo más una nota a pie de página que el actor central del ecosistema. La pregunta a 12 meses no es si V4 destruye a la compañía (no lo hará: la licencia MIT y la reputación adquirida en 2025 mantienen su relevancia) sino si V5 llega a tiempo para ponerse al día. Si el patrón de retrasos continúa, en 2027 DeepSeek podría estar 9-12 meses por detrás de la frontera, no 3-6, y eso ya es una distancia competitiva difícil de recuperar.
Preguntas frecuentes
¿V4 es competitivo con GPT-5 o Claude 4.7 Opus? No de forma directa. La propia DeepSeek admite en su informe técnico que va de 3 a 6 meses por detrás de los modelos occidentales punteros. V4 sigue sin ser multimodal, característica pospuesta por restricciones de cómputo y financiación.
¿Funciona en chips chinos? Parcialmente. V4 introduce TileLang (lenguaje de dominio específico que desacopla el código de CUDA) y MegaMoE (kernel que reduce latencia en paralelismo de expertos en hardware Ascend de Huawei). Esto permite que la inferencia corra en chips chinos. Pero el entrenamiento de V4 ha seguido usando GPUs NVIDIA, lo que significa que la independencia del hardware estadounidense sigue siendo aspiracional.
¿Por qué DeepSeek abre una ronda de financiación ahora? Liang Wenfeng rechazó previamente ceder un 20 por ciento del laboratorio a un inversor no identificado. La pérdida de talento clave a manos de Tencent, ByteDance y Xiaomi, sumada a las restricciones de cómputo y caja que han pospuesto la multimodalidad, han forzado el cambio de postura. Es la primera ronda externa de la compañía.
