Athena: el nuevo superordenador de NASA que eleva la computación de alto rendimiento en Ames

Publicado el

La Universidad de Edimburgo alojará el nuevo superordenador nacional del Reino Unido en su Instalación Avanzada de Computación.

Cuando una misión espacial sale mal en una simulación, suele ser una buena noticia: significa que el error se descubrió a tiempo, en un entorno controlado, y no en la plataforma de lanzamiento. Ese tipo de ensayos digitales necesita una cantidad de cálculo enorme, como si miles de calculadoras trabajaran a la vez, coordinadas al milímetro. En esa liga juega Athena, el nuevo supercomputador de NASA, que la agencia acaba de poner a disposición de su comunidad científica y de ingeniería.

Según la información publicada por NASA y firmada por la editora Tara Friesen, Athena se aloja en la Modular Supercomputing Facility del NASA Ames Research Center, en California, dentro del ecosistema tecnológico de Silicon Valley. El objetivo es claro: dar un salto en capacidad para apoyar la próxima generación de misiones y proyectos de investigación en espacio, aeronáutica y ciencia.

Qué hace especial a Athena: potencia medida en petaflops y eficiencia

En supercomputación, la potencia no se mide por “lo rápido que abre aplicaciones”, sino por cuántas operaciones puede completar por segundo. Ahí entra el término petaflops, que resume el volumen de cálculo a escala industrial. Athena alcanza más de 20 petaflops de rendimiento pico, un dato que la sitúa por encima de los sistemas anteriores de NASA, como Aitken y Pleiades, tanto en potencia como en eficiencia.

Esa segunda palabra, eficiencia, es la que suele marcar la diferencia entre un gran sistema y uno sostenible en el tiempo. No se trata solo de sumar músculo, sino de obtener más resultados por cada unidad de energía y operación. NASA recalca que el sistema ofrece un aumento de capacidad mientras reduce los costes de servicios asociados a la supercomputación. Dicho de forma cotidiana: es como cambiar un coche potente que consume mucho por uno que mantiene las prestaciones y visita menos la gasolinera.

Por qué NASA necesita un superordenador así

Las misiones actuales ya no dependen únicamente de un buen diseño mecánico o de un software estable. La exploración moderna exige anticiparse a comportamientos complejos: aerodinámica en condiciones extremas, interacción de materiales, trayectorias, dinámica de fluidos, condiciones atmosféricas, sensores que generan datos masivos. Para comprender todo eso sin “probar a ciegas” en el mundo real, NASA recurre a simulaciones de alta fidelidad.

Un supercomputador como Athena sirve para recrear virtualmente un lanzamiento de cohete con miles de variables, o para modelar cómo se comportaría el flujo de aire sobre el ala de un avión de nueva generación. También se usa en ciencia, cuando hay que comparar grandes volúmenes de observaciones y detectar patrones que a simple vista serían invisibles. En palabras de Kevin Murphy, responsable del portafolio High-End Computing Capability en la sede de NASA en Washington, la exploración empuja a la agencia “al borde de lo computacionalmente posible”, y Athena llega para ampliar recursos y adaptarlos a necesidades cambiantes, según recoge la comunicación oficial de NASA.

La pieza clave para inteligencia artificial a gran escala dentro de NASA

En los últimos años, la inteligencia artificial se ha convertido en una herramienta práctica para ciencia e ingeniería, no solo en productos de consumo. Entrenar modelos grandes, especialmente los llamados modelos fundacionales, requiere procesar cantidades enormes de datos y ajustar millones o miles de millones de parámetros. Ese trabajo no es muy distinto a preparar una receta compleja para un banquete: si cocinas para una persona, una sartén basta; si cocinas para mil, necesitas una cocina industrial coordinada. Athena está pensado para ese tipo de “cocina” computacional.

NASA menciona explícitamente el entrenamiento de modelos de IA capaces de analizar grandes conjuntos de datos para extraer hallazgos científicos. En la práctica, esto puede significar acelerar la clasificación de señales, identificar eventos raros en datos astronómicos, mejorar sistemas de visión por computadora para navegación, o automatizar parte del análisis en proyectos de observación terrestre. El valor no está en sustituir a los equipos científicos, sino en darles una lupa más potente y rápida.

Quién puede usarlo y cómo se integra con la estrategia híbrida

Una de las ideas importantes alrededor de Athena es que no vive aislado. NASA lo encuadra dentro de su High-End Computing Capability, gestionado por la Office of the Chief Science Data Officer. Ese portafolio apuesta por un enfoque flexible e híbrido que combina supercomputación en centros propios con acceso a herramientas externas como la nube comercial.

La ventaja de esa mezcla es elegir el “mejor taller” para cada trabajo. Hay tareas que encajan en la nube por escalabilidad o por integración con servicios específicos, y otras que funcionan mejor en un sistema dedicado, optimizado y afinado para cálculos intensivos y grandes cargas sostenidas. Esta combinación permite a los equipos decidir dónde ejecutar simulaciones, dónde entrenar modelos de inteligencia artificial y dónde realizar análisis masivos de datos, sin una única receta obligatoria.

En cuanto al acceso, NASA indica que Athena está disponible para personal investigador de la agencia y para científicos externos que apoyen programas de NASA, siempre que soliciten tiempo de uso. En otras palabras, se gestiona como un recurso compartido, con asignación de capacidad para proyectos que lo justifiquen, algo habitual en centros de computación de alto rendimiento.

De Aitken y Pleiades a Athena: continuidad y salto técnico

En tecnología, un nuevo sistema no suele borrar el pasado; lo hereda y lo supera. Pleiades fue durante años un referente de supercomputación dentro de NASA, y Aitken ya supuso un paso en modernización. Athena toma el relevo como el sistema con más potencia disponible en la agencia y con mejoras en eficiencia, alineado con una demanda creciente: cada nueva misión tiende a generar más datos y a requerir modelos más detallados.

NASA también señala que el despliegue se realizó tras un periodo de pruebas beta y que comenzó a entregarse a usuarios existentes en enero. Ese detalle es relevante porque implica que la transición se hace con cierta continuidad operativa: se prueba, se valida con cargas reales y luego se abre gradualmente para que los equipos migren flujos de trabajo sin sobresaltos.

Un nombre con intención: Athena y el guiño a Artemis

Los nombres en NASA casi nunca son solo estética; suelen reflejar cultura interna, historia o propósito. En este caso, la agencia explica que “Athena” se eligió mediante un concurso celebrado en marzo de 2025 entre el personal del High-End Computing Capability. La elección alude a la diosa griega de la sabiduría y la guerra, y se menciona una conexión simbólica con Artemis, al describirla como su hermanastra.

Ese tipo de narrativa funciona como una brújula cultural: sabiduría para el rigor científico, estrategia para resolver problemas complejos, y un vínculo con una etapa de exploración en la que Artemis es un programa central. Sin convertir el nombre en un argumento técnico, sí ayuda a entender cómo NASA quiere situar este recurso: como una base digital para el trabajo duro que viene.

La “infraestructura invisible” que sostiene la próxima etapa de exploración

La parte más interesante de la supercomputación es que suele permanecer fuera de foco: no es una nave, no es un telescopio, no es una imagen espectacular. Es la infraestructura invisible que permite que todo lo demás llegue mejor preparado. NASA describe Athena como un cimiento digital para la próxima era de descubrimiento, con la idea de seguir ampliando capacidades de computación de alto rendimiento a medida que crece la complejidad de sus misiones.

En términos prácticos, un sistema así acorta tiempos de iteración. Donde antes una simulación tardaba días, puede pasar a horas; donde un entrenamiento de IA era prohibitivo, puede volverse rutinario. Eso no elimina la necesidad de validar, repetir y revisar resultados, pero sí cambia el ritmo del trabajo, como pasar de lavar la ropa a mano a tener una lavadora: el esfuerzo se concentra en elegir bien el programa y en interpretar el resultado, no en pelearse con cada minuto del proceso.