En el vertiginoso mundo de la inteligencia artificial (IA), donde los avances suceden a un ritmo acelerado, garantizar la seguridad y la ética en el desarrollo de modelos se ha convertido en una prioridad global. En este contexto, surge AILuminate, una iniciativa de MLCommons, una organización sin ánimo de lucro que busca establecer puntos de referencia rigurosos para evaluar los riesgos de los sistemas de IA.