DeepSeek lanza DeepEP: Una biblioteca de comunicación para el entrenamiento de modelos Mixture of Experts

El mundo de la inteligencia artificial sigue evolucionando con rapidez, y DeepSeek AI ha dado un paso adelante con el lanzamiento de DeepEP, una biblioteca de comunicación diseñada para mejorar el entrenamiento y la inferencia de modelos basados en la arquitectura Mixture of Experts (MoE).

Continúa leyendo «DeepSeek lanza DeepEP: Una biblioteca de comunicación para el entrenamiento de modelos Mixture of Experts»