Mistral lanza Devstral 2: IA para programación con potencia, privacidad y licencia abierta

Publicado el

Ilustración surrealista y minimalista de una cabeza futurista con circuitos y símbolos matemáticos, representando la inteligencia artificial o1-pro de OpenAI, diseñada para el razonamiento avanzado. Fondo blanco y estilo tecnológico limpio.

La startup francesa Mistral AI ha presentado Devstral 2, un modelo de lenguaje enfocado en tareas de programación que busca marcar diferencia tanto por su rendimiento como por su enfoque en la apertura y la privacidad. Se trata de una propuesta que incluye dos variantes: una de alto rendimiento, y otra más ligera capaz de ejecutarse directamente en un portátil sin conexión a Internet, pensada para desarrolladores que valoran la independencia y el control local.

Ambos modelos han sido optimizados para tareas de desarrollo de software en contextos complejos, con la capacidad de manejar hasta 256.000 tokens de contexto, lo que permite analizar y modificar proyectos enteros, no solo fragmentos de código aislados.

Devstral 2 frente a sus competidores

La versión más potente de este lanzamiento, Devstral 2, es un modelo de 123.000 millones de parámetros. A pesar de su tamaño, Mistral destaca que es mucho más eficiente que otros modelos de su clase. Por ejemplo, aseguran que es cinco veces más pequeño que DeepSeek V3.2 y ocho veces más pequeño que Kimi K2, pero que aún así ofrece un rendimiento igual o superior en pruebas exigentes como SWE-bench Verified, donde obtuvo un 72,2% de aciertos en tareas reales de programación extraídas de repositorios.

La comparación con modelos propietarios como Claude Sonnet 4.5 muestra que aún existe una ligera ventaja de los sistemas cerrados, pero el margen se ha reducido. Devstral 2 ganó en el 42,8% de las tareas frente a DeepSeek, perdiendo solo el 28,6%. Aunque perdió más de la mitad contra Claude, sigue posicionándose como uno de los modelos open-weight más potentes disponibles para uso libre.

Devstral Small 2: potencia local sin concesiones

Junto a Devstral 2, Mistral también ha lanzado Devstral Small 2, un modelo más pequeño de 24.000 millones de parámetros, pero que conserva el contexto largo y ofrece un rendimiento sorprendente del 68,0% en SWE-bench Verified. Este modelo está pensado para ejecutarse en una sola GPU o incluso en CPU, lo que lo hace ideal para quienes desarrollan en portátiles, sistemas edge o entornos con restricciones de conectividad.

Su mayor virtud es que puede funcionar completamente offline, sin enviar datos a servidores externos ni depender de servicios en la nube. Esto lo convierte en una opción clave para sectores donde la privacidad y el cumplimiento normativo son fundamentales, como la salud, la defensa o las finanzas.

Vibe CLI: un asistente para programar desde el terminal

Como complemento a estos modelos, Mistral ha presentado Vibe CLI, una interfaz de línea de comandos que integra directamente con los modelos Devstral. En lugar de una interfaz de chat tradicional, Vibe actúa como un agente inteligente que se ejecuta dentro del terminal del desarrollador y entiende el proyecto como un todo.

Es capaz de:

  • Leer la estructura del proyecto y el estado del repositorio Git
  • Usar comandos como @ para referirse a archivos, ! para ejecutar comandos de shell y / para modificar comportamientos
  • Coordinar cambios en varios archivos, manejar dependencias y realizar refactorizaciones complejas

Todo esto con un enfoque que respeta el flujo de trabajo de los desarrolladores y se adapta a sus herramientas habituales. Al estar bajo licencia Apache 2.0, puede utilizarse sin restricciones incluso en entornos comerciales.

Licencias: apertura con condiciones

Uno de los aspectos más debatidos del lanzamiento ha sido su esquema de licenciamiento. Devstral Small 2 está cubierto por la licencia Apache 2.0, lo que permite su uso y modificación sin restricciones, incluso en productos comerciales.

En cambio, Devstral 2 utiliza una versión modificada de la licencia MIT que impone una condición significativa: las empresas que generen más de 20 millones de dólares mensuales no pueden usar el modelo sin una licencia comercial adicional. Es decir, aunque el modelo sea de peso abierto, su uso está limitado para grandes corporaciones.

Este enfoque ha generado opiniones encontradas. Algunos desarrolladores lo ven como un equilibrio razonable entre apertura y sostenibilidad comercial; otros critican que se utilice el término «MIT modificado» cuando en la práctica implica restricciones propias de un modelo propietario.

Usos empresariales de Devstral Small 2

Para empresas medianas que no superan el umbral de ingresos establecido, Devstral Small 2 representa una alternativa muy viable. Ofrece buen rendimiento, portabilidad y una licencia sin restricciones. Aunque no alcanza el nivel de Devstral 2 en tareas de refactorización a gran escala o análisis de grandes códigos, puede ser suficiente para muchas tareas habituales, y permite prototipado rápido sin fricciones legales.

Además, su capacidad para ejecutarse en dispositivos locales abre puertas a integraciones en herramientas internas, entornos de producción con requisitos estrictos de seguridad, o simplemente para desarrolladores que prefieren trabajar sin depender de la nube.

Infraestructura, acceso y precios

Desde el punto de vista técnico, Mistral ha preparado sus modelos para facilitar su adopción. Devstral 2 requiere un mínimo de cuatro GPUs H100, mientras que Devstral Small 2 puede ejecutarse en equipos mucho más modestos. Ambos soportan pesos cuantizados (FP4 y FP8) y son compatibles con vLLM para inferencia escalable.

Durante el periodo inicial, ambos modelos se pueden probar gratis a través de la API de Mistral y Hugging Face. Posteriormente, los precios por tokens serán los siguientes:

  • Devstral 2: $0,40 por millón de tokens de entrada y $2,00 por salida
  • Devstral Small 2: $0,10 por entrada y $0,30 por salida

Estos precios se ubican por debajo de lo que cobran otras opciones como GPT-4 Turbo o Claude Sonnet.

Un ecosistema en evolución: de Codestral a Mistral 3

El camino de Mistral en el mundo de la programación con IA comenzó en 2024 con Codestral, su primer modelo centrado en código, que destacó por su velocidad y capacidad de integrarse en herramientas como JetBrains o LangChain. Luego vino Devstral, el antecesor directo de esta nueva versión, ya orientado al comportamiento «agéntico» con habilidades para navegar archivos y modificar código de forma autónoma.

Recientemente, Mistral presentó también la familia Mistral 3, un conjunto de modelos que abarca desde sistemas ultra ligeros para dispositivos con 4 GB de VRAM hasta arquitecturas más potentes para la nube. Toda esta estrategia apunta a construir un ecosistema de inteligencia distribuida, donde muchos modelos pequeños, adaptados a tareas específicas, puedan convivir fuera de las grandes infraestructuras centralizadas.