OpenAI suma 750 MW de computación de baja latencia con Cerebras para acelerar la inferencia en tiempo real

La noticia, en esencia, va de velocidad percibida. OpenAI ha comunicado una alianza con Cerebras para incorporar 750 MW de capacidad orientada a ultra baja latencia dentro de su plataforma, con una integración progresiva y despliegue por tramos hasta 2028. En términos prácticos, se trata de reforzar la parte del sistema que responde a tus solicitudes cuando chateas, pides código, generas una imagen o ejecutas tareas con agentes de IA.

Conviene separar dos ideas que suelen mezclarse: entrenar modelos y servir modelos. El entrenamiento es como escribir el recetario; la inferencia es cocinar cada plato cuando el cliente lo pide. Puedes tener la mejor receta del mundo, pero si la cocina funciona a tirones, el comensal piensa que el restaurante va lento. Aquí el foco está en la cocina, no en el recetario. Continúa leyendo «OpenAI suma 750 MW de computación de baja latencia con Cerebras para acelerar la inferencia en tiempo real»

Meta acelera la competencia en IA con su nueva API Llama impulsada por Cerebras

Meta ha dado un giro importante en su estrategia de inteligencia artificial. En su reciente evento LlamaCon, anunció el lanzamiento de Llama API, un servicio en la nube que aprovecha la potencia de los chips de Cerebras Systems para ofrecer velocidades de inferencia hasta 18 veces superiores a las soluciones basadas en GPU tradicionales. Este paso transforma sus populares modelos Llama de código abierto en un servicio comercial de alto rendimiento. Continúa leyendo «Meta acelera la competencia en IA con su nueva API Llama impulsada por Cerebras»

Mistral AI y su asistente Le Chat: ¿El más rápido del mundo?

El laboratorio de inteligencia artificial francés Mistral AI ha generado gran expectación con el lanzamiento de su asistente de IA, Le Chat, disponible para iOS y Android. Este chatbot busca competir con gigantes como ChatGPT, Claude y Gemini, ofreciendo una experiencia rápida y eficiente, con la posibilidad de acceder a características mejoradas mediante su versión Pro por $14.99 al mes.

Continúa leyendo «Mistral AI y su asistente Le Chat: ¿El más rápido del mundo?»

Un chip del tamaño de un iPad, para la Inteligencia Artificial

Lo que veis en la imagen superior es el chip más grande del mundo, con 1,2 billones de transistores (1,2 trillions, en inglés), creado para potenciar las aplicaciones de IA.

Se presentó en la conferencia Hot Chips en Silicon Valley esta semana, un chip 56 más grande que la unidad de procesamiento general más grande de Nvidia, y cuenta con 3.000 veces su memoria en el chip. Continúa leyendo «Un chip del tamaño de un iPad, para la Inteligencia Artificial»