DeepSeek V4 llega con seis meses de retraso, sin multimodalidad y reconociendo que va detrás del estado del arte: el héroe chino tiene pies de barro

Publicado el

smartphone con interfaz de la app DeepSeek AI y fondo con ilustración de red neuronal digital

DeepSeek ha publicado este 29 de abril su modelo V4 bajo licencia MIT, con mejoras notables en código y arquitectura diseñada para chips chinos. Lo cubre Javier Lacort en Xataka. La compañía también ha admitido, en su propio informe técnico, que va de tres a seis meses por detrás de los modelos occidentales punteros. Para un laboratorio que en enero de 2025 cambió la narrativa global de la IA con su modelo R1 (sacudió los mercados, cuestionó la lógica de las valoraciones tecnológicas estadounidenses y convenció a medio mundo de que China podía competir en la frontera de la IA a una fracción del coste), eso es mucho más que un matiz.

V4 no destruye ese relato, pero sí lo complica. El laboratorio más importante de China en IA llega con un modelo que sus propios ingenieros describen como un paso, no como un salto.

El contexto del retraso

V4 ha tardado más de lo esperado. Según fuentes del sector recogidas por 36Kr, DeepSeek sufrió un fallo grave de entrenamiento a mediados de 2025 mientras intentaba migrar su infraestructura de NVIDIA a los chips Ascend de Huawei. Las opiniones internas sobre la dirección técnica no estaban alineadas, y el fundador Liang Wenfeng impuso condiciones que resultaron difíciles de ejecutar. El resultado: meses de retraso y un modelo que, además, sigue sin ser multimodal, característica pospuesta por falta de capacidad de cómputo y de caja.

DeepSeek se hizo famoso en enero de 2025 con R1, un modelo de razonamiento que igualó al o1 de OpenAI con costes entre un 90 y un 95 por ciento menores. Esa hazaña lanzó a la compañía al centro de la conversación global sobre IA y provocó caídas significativas en mercados tecnológicos estadounidenses, demostrando que China podía competir al más alto nivel a pesar de las restricciones de exportación de chips.

Las novedades técnicas: TileLang y MegaMoE

Lo más interesante de V4 está en la arquitectura. El modelo introduce TileLang, un lenguaje de dominio específico que permite desacoplar el código de bajo nivel de CUDA (el estándar de NVIDIA) y compilarlo para distintos chips. También incorpora MegaMoE, un kernel diseñado para reducir la latencia en paralelismo de expertos, que ya corre en hardware Ascend de Huawei.

La parte que conviene leer con cuidado es esta: el entrenamiento de V4 ha seguido usando GPUs NVIDIA. La independencia del hardware estadounidense que DeepSeek vende como una de sus diferenciaciones es, de momento, más una aspiración que un hecho consumado. La inferencia puede correr en chips chinos. El entrenamiento, por ahora, no.

DeepSeek lleva años explorando esta vía de optimización. Su V3 de finales de 2024 ya destacaba por una arquitectura MoE (Mixture of Experts) eficiente con 671.000 millones de parámetros y entrenamiento con un presupuesto de unos 6 millones de dólares, dramáticamente inferior al de competidores estadounidenses. El precio por millón de tokens generados rondaba los 13 céntimos de euro, una cifra que fuerza a toda la industria a replantearse sus modelos de costes.

El mercado chino se ha reorganizado sin DeepSeek

Mientras DeepSeek miraba hacia dentro, el ecosistema chino de IA se ha ido reorganizando sin esperarla. Doubao, de ByteDance, se ha convertido en el chatbot más descargado de China. MiniMax y Z.ai han salido a bolsa. Alibaba ha logrado una gran adopción gracias a aplicaciones verticales con su familia Qwen. DeepSeek nunca quiso construir un producto de consumo masivo y el mercado no la ha esperado.

La factura interna también ha llegado. El laboratorio ha perdido talento clave a manos de Tencent, ByteDance y Xiaomi en prácticamente todas las áreas técnicas. Liang Wenfeng rechazó ceder un 20 por ciento de la compañía a un gran inversor no identificado. Y ahora, por primera vez, DeepSeek abre una ronda de financiación externa. Es un cambio significativo respecto a la postura previa de mantener el control completo del laboratorio.

En diciembre de 2025 DeepSeek anunció V3.2 y V3.2-Speciale como sistemas de razonamiento de vanguardia con resultados sobresalientes en olimpiadas matemáticas e informáticas. Ese momento marcó la cima de la narrativa de DeepSeek como alternativa real al modelo cerrado occidental. Cinco meses después, V4 llega con la admisión explícita de que el laboratorio sigue 3-6 meses por detrás de la frontera.

El golpe a la narrativa del open source chino

El daño más significativo del lanzamiento de V4 no es a DeepSeek; es a la narrativa más amplia del open source chino como alternativa real al modelo cerrado occidental. Un empleado de Qwen ha criticado abiertamente la mitología que se había construido alrededor de DeepSeek, sugiriendo que el laboratorio ha sido el principal beneficiario mediático de un trabajo colectivo que en realidad ha sido distribuido entre varios laboratorios chinos.

La crítica tiene base. La cifra de 6 millones de dólares de entrenamiento de V3 que se viralizó en enero de 2025 era el coste marginal del último entrenamiento (excluyendo investigación previa, infraestructura, talento). La capacidad de competir con la frontera occidental requería que el ritmo de progreso se mantuviera; V4 confirma que el ritmo no se ha mantenido y que el delta entre laboratorios chinos punteros y OpenAI/Anthropic/Google se ha ampliado en los últimos seis meses, no reducido.

Mi valoración

V4 es uno de esos lanzamientos que importan más por lo que admiten que por lo que aportan técnicamente. Lo que más me convence del análisis es que DeepSeek ha tenido la honestidad técnica de reconocer en su propio informe que va 3-6 meses por detrás. Es algo que ni OpenAI ni Anthropic harían públicamente sobre sí mismos. Esa transparencia es saludable para el ecosistema y útil para los desarrolladores que toman decisiones de adopción. La narrativa pública sobre IA china tiende a moverse en extremos (o «China va a superar a Estados Unidos en cualquier momento» o «China está irremediablemente atrasada») y el reconocimiento explícito de DeepSeek es una calibración necesaria. Lo que más me preocupa es la dependencia continuada de NVIDIA para entrenamiento. La promesa estratégica de DeepSeek y de China en general era que la combinación de optimización software + chips Ascend de Huawei iba a permitir entrenar modelos punteros sin acceso a hardware estadounidense. V4 demuestra que esa promesa todavía no se cumple. La inferencia puede correr en chips chinos, pero el entrenamiento real sigue requiriendo GPUs NVIDIA, y eso significa que las restricciones de exportación de chips siguen siendo un cuello de botella efectivo. Lo más estructuralmente importante es lo que el lanzamiento dice sobre la dinámica competitiva china. ByteDance está dominando con Doubao en consumer. Alibaba está dominando en empresarial con Qwen. MiniMax y Z.ai han hecho IPO con valoraciones significativas. DeepSeek, que era el laboratorio insignia hace 18 meses, ahora está abriendo una ronda externa por necesidad y perdiendo talento clave. La consolidación del sector de IA chino está pasando rápidamente y DeepSeek puede acabar siendo más una nota a pie de página que el actor central del ecosistema. La pregunta a 12 meses no es si V4 destruye a la compañía (no lo hará: la licencia MIT y la reputación adquirida en 2025 mantienen su relevancia) sino si V5 llega a tiempo para ponerse al día. Si el patrón de retrasos continúa, en 2027 DeepSeek podría estar 9-12 meses por detrás de la frontera, no 3-6, y eso ya es una distancia competitiva difícil de recuperar.

Preguntas frecuentes

¿V4 es competitivo con GPT-5 o Claude 4.7 Opus? No de forma directa. La propia DeepSeek admite en su informe técnico que va de 3 a 6 meses por detrás de los modelos occidentales punteros. V4 sigue sin ser multimodal, característica pospuesta por restricciones de cómputo y financiación.

¿Funciona en chips chinos? Parcialmente. V4 introduce TileLang (lenguaje de dominio específico que desacopla el código de CUDA) y MegaMoE (kernel que reduce latencia en paralelismo de expertos en hardware Ascend de Huawei). Esto permite que la inferencia corra en chips chinos. Pero el entrenamiento de V4 ha seguido usando GPUs NVIDIA, lo que significa que la independencia del hardware estadounidense sigue siendo aspiracional.

¿Por qué DeepSeek abre una ronda de financiación ahora? Liang Wenfeng rechazó previamente ceder un 20 por ciento del laboratorio a un inversor no identificado. La pérdida de talento clave a manos de Tencent, ByteDance y Xiaomi, sumada a las restricciones de cómputo y caja que han pospuesto la multimodalidad, han forzado el cambio de postura. Es la primera ronda externa de la compañía.