Alibaba Cloud ha presentado su nuevo modelo de inteligencia artificial, QwQ-32B, basado en su LLM (Large Language Model) más reciente, Qwen2.5-32B. Con solo 32.000 millones de parámetros, Alibaba asegura que su rendimiento es comparable al de otros gigantes del sector, como DeepSeek-R1 y OpenAI’s o1, ambos con modelos significativamente más grandes. Este anuncio representa un paso adelante en la optimización de la IA, priorizando la eficiencia sobre la escala bruta.
¿Qué hace especial a QwQ-32B?
La clave del éxito de QwQ-32B reside en su uso de aprendizaje por refuerzo (RL, por sus siglas en inglés). Esta técnica de machine learning, ampliamente utilizada en IA moderna, permite que el software aprenda a tomar decisiones a través de un proceso de prueba y error, optimizando sus resultados de manera progresiva. Según Alibaba, esta metodología ha mejorado notablemente la razonamiento matemático y la capacidad de programación del modelo.
Además, el modelo ha sido entrenado con un sistema de recompensas basado en verificadores de reglas, lo que le permite afinar su comprensión del lenguaje y mejorar su alineación con las preferencias humanas. Como resultado, QwQ-32B se perfila como un modelo más preciso y adaptable en comparación con opciones más masivas y costosas de operar.
Comparaciones con OpenAI y DeepSeek
Uno de los aspectos más llamativos del anuncio es la comparación directa con DeepSeek-R1, un modelo con 671.000 millones de parámetros (de los cuales solo 37.000 millones están activados). A pesar de esta diferencia de tamaño, Alibaba afirma que QwQ-32B logra resultados comparables, lo que sugiere que la optimización de procesos y la eficiencia pueden ser tan importantes como la potencia bruta en el desarrollo de IA.
El analista Justin St-Maurice, de Info-Tech Research Group, ha señalado que comparar estos modelos es como evaluar el rendimiento de equipos en una carrera de NASCAR: cada vuelta tiene un ganador distinto y lo que realmente importa es la adecuación del modelo a cada caso de uso. En su opinión, la carrera de la IA no se trata solo de tamaño, sino de cómo se alinean los modelos con las necesidades reales de las empresas.
¿Un golpe a los costos de los modelos avanzados?
Un punto crítico en la adopción de IA es su costo operativo. OpenAI ha sido criticado por los rumores sobre su tarifa de $20.000 al mes para acceder a modelos con «inteligencia de nivel PhD». Frente a esto, Alibaba y DeepSeek están demostrando que los modelos de alto rendimiento no tienen por qué ser prohibitivamente caros.
Esto también plantea una cuestión clave en la industria: ¿es necesario contar con enormes centros de datos que consumen billones de dólares para tener modelos competitivos? Alibaba parece estar desafiando esta noción con QwQ-32B, apostando por la eficiencia como ventaja competitiva.
El factor geopolítico en la inteligencia artificial
Más allá del rendimiento técnico, existe un debate sobre la seguridad y confiabilidad de los modelos de IA según su país de origen. St-Maurice menciona que no es fácil afirmar que una IA china es menos ética que una de América del Norte. El estándar ético depende de quién lo establezca y del contexto en el que se utilice el modelo.
En este panorama, Baidu sigue siendo otro jugador clave en la IA china, aunque su modelo Ernie no ha logrado una gran presencia internacional. A diferencia de Alibaba y DeepSeek, que buscan posicionarse a nivel global, Baidu parece enfocarse más en el mercado chino, lo que podría explicar su impacto limitado fuera del país.
QwQ-32B: ¿El futuro de la inteligencia artificial?
Alibaba ha indicado que este modelo es solo el primer paso en su estrategia para ampliar la escala del aprendizaje por refuerzo y mejorar la capacidad de razonamiento de la IA. Su objetivo final es alcanzar la Inteligencia General Artificial (AGI), un hito que permitiría a las IA igualar o superar la capacidad de pensamiento humano en múltiples disciplinas.
En WWWhatsnew, creemos que el lanzamiento de QwQ-32B refuerza una tendencia clave en la industria: la carrera ya no se trata únicamente de crear modelos gigantescos, sino de hacerlos más inteligentes, eficientes y accesibles. Si Alibaba realmente ha logrado un rendimiento comparable al de modelos mucho más grandes con solo 32.000 millones de parámetros, podríamos estar viendo un cambio de paradigma en la IA.