Cuando Wikipedia sopla 25 velas, la celebración llega acompañada de una preocupación muy práctica: quién sostiene la factura cuando medio planeta —y, ahora, una parte importante de la industria de la inteligencia artificial— bebe de sus contenidos a una velocidad inédita. La fundación Wikimedia, matriz del proyecto, ha anunciado acuerdos con varias compañías centradas en… Continúa leyendo »
OpenAI suma 750 MW de computación de baja latencia con Cerebras para acelerar la inferencia en tiempo real
La noticia, en esencia, va de velocidad percibida. OpenAI ha comunicado una alianza con Cerebras para incorporar 750 MW de capacidad orientada a ultra baja latencia dentro de su plataforma, con una integración progresiva y despliegue por tramos hasta 2028. En términos prácticos, se trata de reforzar la parte del sistema que responde a tus solicitudes cuando chateas, pides código, generas una imagen o ejecutas tareas con agentes de IA.
Conviene separar dos ideas que suelen mezclarse: entrenar modelos y servir modelos. El entrenamiento es como escribir el recetario; la inferencia es cocinar cada plato cuando el cliente lo pide. Puedes tener la mejor receta del mundo, pero si la cocina funciona a tirones, el comensal piensa que el restaurante va lento. Aquí el foco está en la cocina, no en el recetario. Continúa leyendo «OpenAI suma 750 MW de computación de baja latencia con Cerebras para acelerar la inferencia en tiempo real»