Microsoft, en su evento Ignite, presentó dos nuevos chips personalizados, marcando un cambio significativo en su estrategia de infraestructura de inteligencia artificial (IA). Esta semana, la compañía ha revelado el chip Azure Maia 100 AI y el CPU Azure Cobalt 100, señalando un avance en la formación y inferencia de modelos de lenguaje grande en la nube y en los servicios generales de la nube de Azure.
Azure Maia 100 AI: para LLM
Vamos primero al que más me ha impresionado. El Azure Maia 100 AI, con 105 mil millones de transistores y fabricado con un proceso de 5 nanómetros de TSMC, está diseñado específicamente para la formación e inferencia de modelos de lenguaje grandes en la nube.
Esta estrategia apunta a reducir la dependencia de Microsoft de las GPU H100 de Nvidia, añadiendo más flexibilidad a sus servicios de Azure.
Se espera que el Maia 100 no solo aumente la densidad del servidor, sino que también se adapte sin problemas a las huellas de centros de datos existentes. Microsoft se compromete a compartir sus tipos de datos MX y diseños de racks con competidores, fomentando un esfuerzo colectivo en la industria.
Azure Cobalt 100 CPU: enfoque en el rendimiento y la gestión de energía
Seguimos con el CPU Azure Cobalt 100, un chip de 128 núcleos basado en ARM diseñado para servicios generales en la nube de Azure, se construye sobre un diseño ARM Neoverse CSS. Microsoft se centra en la gestión de energía, permitiendo control sobre el rendimiento y el consumo de energía por núcleo y en cada máquina virtual.
Tal y como dije ayer, Microsoft ha colaborado con OpenAI para analizar cómo las cargas de trabajo de OpenAI se ejecutan en Azure, optimizando la arquitectura de IA de extremo a extremo con Maia. Se anunciaron planes para expandir asociaciones con Nvidia, AMD, Intel y Qualcomm para ofrecer a los clientes una mayor elección de infraestructura.
Aunque Microsoft aún no ha revelado su nueva estructura de precios de servidores, el movimiento hacia chips internos podría beneficiar a los clientes a través de costos potencialmente más bajos o un mayor valor por dólar. El anuncio de estos chips en la conferencia Ignite señala un cambio hacia la autosuficiencia en el desarrollo de chips y una reducción del impacto ambiental con innovaciones como un «sidekick», un enfriador de líquidos para el rack Maia 100.
El lanzamiento de Azure Maia 100 AI y Cobalt 100 CPU por parte de Microsoft es un indicativo claro de su compromiso con la innovación y la autosuficiencia en el ámbito de la IA y los servicios en la nube. Estos desarrollos prometen una infraestructura más eficiente y adaptable para satisfacer las necesidades de sus clientes en la era de la IA.