Mistral AI y su asistente Le Chat: ¿El más rápido del mundo?

Publicado el

imagen minimalista y profesional que representa el tema de la inteligencia artificial y sus riesgos potenciales

El laboratorio de inteligencia artificial francés Mistral AI ha generado gran expectación con el lanzamiento de su asistente de IA, Le Chat, disponible para iOS y Android. Este chatbot busca competir con gigantes como ChatGPT, Claude y Gemini, ofreciendo una experiencia rápida y eficiente, con la posibilidad de acceder a características mejoradas mediante su versión Pro por $14.99 al mes.

Velocidad sin precedentes gracias a Cerebras

Uno de los principales diferenciadores de Le Chat es su velocidad. Mistral afirma que su tecnología Flash Answers permite responder hasta 1,100 palabras por segundo, superando a otros modelos en el mercado. Esto es posible gracias a la colaboración con Cerebras, una empresa especializada en procesamiento de IA de alta velocidad.

Según pruebas realizadas por Mistral y Cerebras, Le Chat es 10 veces más rápido que GPT-4o, Claude Sonnet 3.5 y DeepSeek R1. En un test de programación, donde se generó un juego de serpiente en Python, Le Chat completó la tarea en 1.3 segundos, mientras que Claude Sonnet 3.5 tardó 19 segundos y GPT-4o 46 segundos.

Comparaciones y pruebas en el mundo real

Desde Analytics India Magazine (AIM), realizamos nuestras propias pruebas con una tarea distinta: resolver un problema de química de un examen IIT-JEE, considerado uno de los más difíciles del mundo. En nuestros tests, Le Chat fue el modelo más rápido, respondiendo en menos de 4 segundos en tres de seis pruebas.

Por su parte, Google Gemini 2.0 Flash también mostró un rendimiento sólido, resolviendo la misma pregunta en menos de 6 segundos en todos los intentos. Sin embargo, algunos cuestionan si Flash Answers siempre está activado en Le Chat o si su rendimiento varía según el tipo de pregunta.

¿Es realmente el asistente más rápido?

Si bien Le Chat impresiona por su velocidad, hay ciertos factores a considerar. La naturaleza de la consulta influye en la rapidez de la respuesta. Por ejemplo, modelos especializados en razonamiento, como DeepSeek R1, priorizan la precisión sobre la velocidad, llevando más tiempo en sus respuestas al verificar datos y cálculos detalladamente.

Además, pruebas de terceros como Artificial Analysis muestran que modelos como o3-mini de OpenAI han logrado 214 tokens por segundo, superando a otras opciones. Mistral AI y Cerebras han entrado de lleno en la carrera de la inferencia rápida, donde también compiten Groq y SambaNova.

Desde WWWhat’s New, creemos que esta batalla por la velocidad es clave para el futuro de los asistentes de IA. Con los avances en procesadores y arquitecturas, cada vez nos acercamos más a la visión de Jensen Huang, CEO de NVIDIA, quien predice que los sistemas de IA podrán responder en tiempo real, en menos de un segundo.