Meta lleva tiempo comprando “electrodomésticos” de alta gama para su infraestructura de inteligencia artificial, sobre todo aceleradores de compañías como Nvidia y también AMD. Lo nuevo es que la empresa ha presentado una hoja de ruta con cuatro chips propios, pensados para dos tareas que hoy le consumen cantidades gigantescas de cómputo: las funciones de IA generativa dentro de sus apps y los sistemas de ranking y recomendación que deciden qué ves primero en Instagram, Facebook o Threads. La noticia se conoció el 11 de marzo de 2026 y sitúa a Meta en la misma carrera que otros gigantes tecnológicos: diseñar parte del “motor” en casa para no depender al 100% de proveedores externos.
La lógica es fácil de entender con un ejemplo cotidiano. Si cada día cocinas para millones de personas, te interesa que los hornos estén ajustados a tu menú, no a una carta genérica. Un chip generalista es como un horno industrial que sirve para casi todo; un chip propio puede ser un horno afinado para tu receta concreta, con mejor consumo energético y, con suerte, menor coste por plato. Reuters subraya justo ese punto: chips diseñados para los cálculos específicos de Meta pueden reducir energía y mejorar la relación coste/eficiencia.
MTIA: entrenar modelos y usarlos a escala
Estos procesadores se integran en la familia MTIA (Meta Training and Inference Accelerator), la línea de silicio personalizado que Meta presentó en 2023. La propia compañía explica que ya despliega cientos de miles de chips MTIA para inferencia en sus aplicaciones, tanto en contenido orgánico como en anuncios. Aquí conviene aclarar términos, porque la jerga se vuelve una trampa si no se aterriza.
“Entrenar” un modelo es como enseñar a alguien a resolver problemas: requiere muchísimos ejemplos, correcciones y horas de práctica. “Inferir” es el momento de uso real: cuando le pides a un asistente que redacte un texto, cuando una app decide qué vídeo mostrarte o cuando un sistema publicitario calcula qué anuncio encaja mejor. La inferencia ocurre sin parar, a cada clic, scroll y reproducción. Por eso Meta reconoce que ve la demanda de inferencia disparándose y que su foco inmediato va en esa dirección.
Cuatro chips, dos frentes: recomendaciones y GenAI
La hoja de ruta incluye MTIA 300, MTIA 400, MTIA 450 y MTIA 500. Según WIRED, el MTIA 300 ya está en producción, mientras que los otros tres están previstos para llegar entre principios y finales de 2027. Reuters concreta que el MTIA 300 ya se usa para sistemas de ranking y recomendación, y que los dos últimos (450 y 500) están pensados principalmente para inferencia.
Meta enmarca esta cadencia como una estrategia deliberada: avanzar más rápido que los ciclos tradicionales del sector, que suelen moverse en ventanas de uno a dos años. Su planteamiento es iterativo y con ritmo casi semestral, algo que encaja con la velocidad a la que cambian los modelos y los trucos de optimización. La compañía lo expresa con un objetivo claro: lanzar nuevas generaciones cada seis meses o menos y facilitar que se adopten sin fricción dentro de la infraestructura existente.
MTIA 300: el músculo para ordenar tu feed (y los anuncios)
Aunque la atención mediática suele irse a la IA generativa, el trabajo silencioso que mantiene a flote una red social es el de recomendación. Es el equivalente a un bibliotecario que reorganiza estanterías en tiempo real: con cada interacción, recalcula qué contenido puede interesarte. MTIA 300 se sitúa en esa capa y, según Meta, estará orientado al entrenamiento de ranking y recomendaciones, con producción ya en marcha.
Esta pieza es importante por una razón práctica: si logras que el sistema que decide “qué mostrar” funcione más barato por cada mil impresiones, el ahorro se multiplica por el tamaño de Meta. No es solo rendimiento; es eficiencia operativa sostenida, día tras día.
MTIA 400, 450 y 500: la pista de despegue para la inferencia generativa
Donde la cosa se pone más interesante es en la tríada que sigue. WIRED cuenta que MTIA 400 está diseñado para correr inferencia y que Meta asegura un rendimiento “competitivo con productos comerciales líderes”. Reuters añade que, a partir del MTIA 400, Meta ha diseñado un sistema completo alrededor del chip, del tamaño de varios racks, con una versión de refrigeración líquida. Eso sugiere que no se trata solo del silicio: la integración en el centro de datos es parte del producto.
Luego llega MTIA 450, que duplicará la memoria de alto ancho de banda (HBM) respecto al 400 y debería llegar a principios de 2027, siempre según WIRED. Para entender por qué la memoria importa tanto, piensa en cocinar con ingredientes repartidos por toda la casa: si cada vez que cortas una cebolla tienes que bajar al trastero, pierdes tiempo. En IA, la HBM es esa despensa pegada a la encimera; más HBM suele significar menos cuellos de botella al mover datos.
El último, MTIA 500, apunta aún más alto en memoria y añade “innovaciones en datos de baja precisión”. Esto suena técnico, pero el concepto es sencillo: muchos cálculos de IA no necesitan decimales perfectos para dar respuestas útiles. Trabajar con menos precisión, cuando el modelo lo permite, puede acelerar el proceso y reducir consumo. Es como leer un mapa para llegar a casa: no necesitas medir milímetros, te basta con calles y giros correctos.
RISC-V, Broadcom y TSMC: diseño propio, fabricación ajena
Un matiz clave: “chip propio” no significa levantar una fábrica de semiconductores. Meta diseña, colabora y encarga la producción a especialistas. WIRED señala que Meta se ha asociado con Broadcom para desarrollar estos semiconductores, que están construidos sobre la arquitectura abierta RISC-V y se fabrican en TSMC, el mayor productor de chips avanzados. Reuters también menciona a Broadcom como socio de diseño y a TSMC como fundición.
RISC-V encaja con una filosofía de control y flexibilidad: es una base abierta sobre la que se pueden construir extensiones específicas sin depender de un único propietario de la arquitectura. En un sector donde el “peaje” por licencias y dependencias estratégicas pesa cada vez más, esa elección dice mucho de la dirección de Meta.
Por qué Meta no abandona a Nvidia: estrategia de cartera y gasto récord
Todo esto no elimina la compra de hardware externo. Meta lo define como un enfoque de “cartera”: usar chips de varios líderes del sector mientras coloca MTIA en el centro de su estrategia de infraestructura. Reuters recuerda que la compañía sigue adquiriendo chips de Nvidia y AMD, y que su expansión de centros de datos es acelerada. La propia Meta habla de construir sobre estándares industriales como PyTorch, vLLM, Triton y Open Compute Project para que la adopción sea fluida en sus sistemas.
El contexto económico ayuda a dimensionarlo. Reuters indica que Meta espera un gasto de capital en 2026 de entre 115.000 y 135.000 millones de dólares, una cifra que ilustra por qué cualquier mejora de eficiencia tiene un impacto gigantesco. Incluso si MTIA cubre solo una parte del pastel, esa parte puede equivaler a miles de millones en infraestructura y electricidad.
Qué puede cambiar para ti, aunque no veas el chip
Para el usuario final, estos anuncios no se traducen en un botón nuevo inmediato. El efecto probable es más sutil: funciones de IA generativa con menor latencia, respuestas más rápidas en asistentes integrados, herramientas creativas que se ejecuten de forma más consistente sin “colas” de espera cuando hay picos de uso. En el feed, un sistema de recomendación más eficiente puede permitirse recalcular con más frecuencia y con modelos más complejos sin disparar el coste.
En el plano industrial, la señal es clara: la batalla ya no es solo por el modelo, también por el “suelo” sobre el que corre. Meta quiere que su software, su infraestructura y su silicio encajen como piezas del mismo puzle. WIRED lo sitúa como un intento más de construir hardware propio mientras el resto del sector también acelera en esa dirección.
