Meta lanza Llama 4: los nuevos modelos de IA que marcan un salto gigante en rendimiento y eficiencia

Publicado el

Meta ha subido una vez más la apuesta en el mundo de la inteligencia artificial con el lanzamiento de los modelos Llama 4, una nueva generación que no solo amplía las capacidades técnicas de los modelos anteriores, sino que también pone a disposición del público herramientas multimodales de altísimo nivel. Con nombres que evocan agilidad e innovación —Llama 4 Scout, Maverick y Behemoth— esta nueva camada promete transformar desde asistentes virtuales hasta tareas complejas de codificación, razonamiento y análisis visual.

¿Qué es Llama 4 y por qué es importante?

Llama 4 es el nombre de la más reciente colección de modelos de lenguaje desarrollados por Meta. Esta generación introduce por primera vez la arquitectura MoE (Mixture of Experts), un enfoque que distribuye las tareas entre distintos «expertos» dentro del modelo, activando solo los necesarios para cada tarea. Es como tener un equipo multidisciplinario de especialistas que se turnan para resolver problemas específicos, optimizando recursos sin sacrificar precisión.

Este diseño no solo reduce el consumo computacional, sino que permite manejar tareas más complejas con menos parámetros activos, lo que se traduce en mayor eficiencia y velocidad.

Llama 4 Scout: pequeño pero poderoso

El modelo Scout es el más ligero de esta familia, pero no por eso menos impresionante. Cuenta con 17 mil millones de parámetros activos distribuidos entre 16 expertos, y puede ejecutarse en una sola GPU Nvidia H100, lo cual lo hace muy accesible para desarrolladores.

Su característica estrella es su ventana de contexto de 10 millones de tokens, lo que significa que puede procesar documentos extremadamente largos o múltiples archivos simultáneamente. Esto lo convierte en una herramienta ideal para tareas como:

  • Resumen de múltiples documentos

  • Análisis de grandes bases de código

  • Procesamiento de texto con imágenes adjuntas

Es como tener una lupa de alta precisión capaz de leer, analizar y sintetizar bibliotecas enteras sin perder el hilo.

Llama 4 Maverick: el todoterreno de Meta

Subiendo de nivel, nos encontramos con Maverick, que también maneja 17 mil millones de parámetros activos, pero esta vez distribuidos en 128 expertos. A pesar de tener un total de 400 mil millones de parámetros, su eficiencia está optimizada para tareas exigentes como:

  • Codificación avanzada

  • Razonamiento lógico

  • Comprensión multilingüe

  • Interpretación de imágenes

Según Meta, Maverick supera en rendimiento a modelos de la talla de GPT-4o de OpenAI y Gemini 2.0 Flash de Google en varios benchmarks. Lo interesante es que lo logra siendo más pequeño en tamaño activo, lo que sugiere un uso mucho más rentable de los recursos computacionales.

Este modelo es ideal para quienes buscan una IA para funciones generales, desde escribir textos creativos hasta ayudar en la depuración de código o analizar imágenes en tiempo real.

Behemoth: el titán en entrenamiento

Por ahora, Llama 4 Behemoth no ha sido liberado al público, pero Meta ha compartido detalles que dejan con la boca abierta. Estamos hablando de un modelo con:

  • 288 mil millones de parámetros activos

  • 2 billones de parámetros totales

  • 16 expertos en su núcleo

Este modelo fue clave en el entrenamiento de Scout y Maverick gracias a un proceso conocido como codistillation, que permitió transferir conocimiento desde este “maestro” a los modelos más pequeños.

Behemoth ha demostrado un rendimiento superior en pruebas científicas y técnicas, superando a modelos como GPT-4.5, Claude 3.7 Sonnet y Gemini 2.0 Pro en áreas como matemáticas y resolución de problemas complejos. Su nombre no es casual: representa una nueva cima en lo que las IAs pueden alcanzar.

Innovaciones técnicas bajo el capó

Meta no solo ha actualizado la arquitectura, sino también el método de entrenamiento. Entre las novedades destacan:

  • Atención intercalada sin embeddings posicionales: una técnica que mejora la comprensión de entradas largas.

  • Escalado de temperatura en tiempo de inferencia: ayuda al modelo a mantenerse preciso en entradas extensas.

  • Entrenamiento con datos multimodales: imágenes, video y texto para que el modelo entienda y relacione mejor contextos visuales.

Además, los modelos fueron afinados con técnicas modernas como:

  • SFT (fine-tuning supervisado ligero)

  • Reforzamiento en línea (RL)

  • Optimización directa por preferencias (DPO)

En el caso de Maverick, Meta eliminó más del 50% de los datos simples durante el ajuste fino para enfocarse en ejemplos más difíciles. Esto mejoró su capacidad de razonamiento y conversación, al entrenarlo con situaciones más complejas desde el principio.

¿Dónde puedes usar estos modelos?

Tanto Scout como Maverick están disponibles para descarga en llama.com y Hugging Face. También ya se integraron en las herramientas de Meta AI dentro de WhatsApp, Messenger e Instagram Direct, aunque las funciones multimodales por ahora solo están activas en inglés y para usuarios de Estados Unidos.

Esto significa que millones de personas ya están interactuando con Llama 4 sin saberlo. Un simple chat con el asistente de Meta podría estar siendo resuelto por alguno de estos nuevos cerebros artificiales.

Un futuro abierto… con condiciones

Meta ha promocionado estos modelos como “open-weight” (pesos abiertos), lo que en teoría permitiría su uso libre. Sin embargo, hay excepciones importantes:

  • Empresas con más de 700 millones de usuarios activos al mes deben pedir una licencia especial.

  • Usuarios o empresas con sede en la Unión Europea no pueden utilizarlos, debido a regulaciones locales sobre privacidad e inteligencia artificial.

Esto ha generado críticas, ya que algunos expertos consideran que el término “open” es engañoso si hay tantas restricciones.

El modelo que no evita las preguntas difíciles

Un cambio importante en Llama 4 es su mayor disposición a responder preguntas controvertidas o delicadas. A diferencia de versiones anteriores, ahora ofrece respuestas más equilibradas y se niega menos a participar en temas políticos o sociales complejos. Meta asegura que esto se logró sin comprometer la veracidad ni la imparcialidad de las respuestas.

Es una jugada arriesgada en un contexto donde los algoritmos han sido criticados por censurar ciertas ideologías, pero también una forma de ganar confianza entre quienes desean modelos más transparentes y útiles.

¿Qué sigue para Llama?

El camino de Llama 4 no termina aquí. Meta anunció que el próximo modelo será uno especializado en razonamiento profundo, con un enfoque más fiable y preciso en la validación de respuestas, similar a los nuevos modelos o1 y o3-mini de OpenAI. Además, se esperan más anuncios en LlamaCon 2025, el evento que Meta celebrará este 29 de abril.

Si algo ha quedado claro con estos lanzamientos es que la carrera por liderar la inteligencia artificial está más viva que nunca. Y Meta, con su enfoque técnico, su apuesta multimodal y su estrategia de apertura parcial, acaba de dar un paso muy fuerte hacia el frente.

Fuente: ai.meta.com/blog/llama-4-multimodal-intelligence/