En los últimos años nos hemos acostumbrado a que la inteligencia artificial aprenda leyendo: millones de páginas, conversaciones y descripciones. Ese enfoque funciona muy bien cuando la tarea es escribir, resumir o buscar patrones en lenguaje. La ciencia, sin embargo, se parece menos a una biblioteca y más a un laboratorio lleno de instrumentos: telescopios, sensores, espectros, mapas de presión, velocidad, densidad. Por eso está ganando peso otra idea: entrenar modelos fundacionales con datos científicos reales, para que aprendan regularidades de la física y luego las apliquen a problemas distintos entre sí.
Esa es la apuesta de la colaboración Polymathic AI, con participación de la Universidad de Cambridge, que ha presentado dos modelos con ambición transversal: AION-1 para astronomía y Walrus para sistemas de tipo fluido. La promesa es sencilla de explicar: si has visto muchos tipos de “comportamientos de la naturaleza”, te cuesta menos entender uno nuevo, incluso con pocos datos.
Qué significa entrenar una IA con datos físicos
Un modelo fundacional suele definirse por dos rasgos: aprende con cantidades enormes de datos y lo hace de manera generalista, no pegada a un único problema. En lenguaje, eso produce sistemas capaces de redactar recetas y también de contestar preguntas técnicas. En física, el paralelismo sería un modelo que, tras observar miles de simulaciones y mediciones, aprende “cómo suelen moverse las cosas” en sentido amplio: patrones de propagación de ondas, mezcla de materiales, estructuras que emergen en turbulencia, o relaciones entre observables en el cielo.
Lo interesante es que estos modelos no parten necesariamente de ecuaciones escritas a mano para cada caso. En lugar de pedirle al investigador que elija, ajuste y ejecute un método específico desde cero, el modelo llega con una especie de “intuición previa” aprendida de muchos experimentos y simulaciones. Es como tener un ayudante que ya ha visto cientos de montajes parecidos: no sustituye al científico, pero acorta la fase de tanteo.
Según explican investigadores de Polymathic AI, esta generalización cruzada sirve cuando un equipo trabaja con presupuestos ajustados o con muestras pequeñas, un escenario frecuente en ciencia real. Michael McCabe, desarrollador principal de Walrus, lo plantea como un atajo pragmático: si en tu área aparece una física “nueva” para ti, quizá sea “vieja” para otra disciplina, y un modelo entrenado en variedad puede traer esas pistas sin obligarte a explorar todas las opciones a ciegas. La presentación técnica de Walrus está en arXiv (con DOI 10.48550/arxiv.2511.15684), mientras que AION-1 se mostró en NeurIPS.
AION-1: una lente estadística para el cielo
La astronomía es un terreno perfecto para este enfoque porque ya trabaja con repositorios descomunales. AION-1 se entrena con grandes campañas de observación como Sloan Digital Sky Survey (SDSS) y Gaia, que reúnen cientos de millones de registros de estrellas, cuásares y galaxias, sumando del orden de decenas de terabytes. La idea no es que el modelo memorice “fotos bonitas” del universo, sino que aprenda asociaciones entre distintas formas de observar un mismo objeto: imágenes, espectros y otros atributos medidos por instrumentos.
Aquí aparece un caso de uso muy tangible: cuando un astrónomo obtiene una imagen de baja resolución de una galaxia, el modelo puede inferir información extra porque ha aprendido, a partir de millones de ejemplos, qué combinaciones de señales suelen ir juntas. Es parecido a reconocer a un amigo en una foto borrosa: no ves todos los detalles, pero tu cerebro completa lo que falta porque ya ha visto a esa persona en otras condiciones. En ciencia el riesgo de “imaginar demasiado” se controla con validación y con métodos estadísticos, claro, pero como punto de partida para priorizar análisis, filtrar candidatos o extraer variables latentes, el enfoque resulta atractivo.
Liam Parker, investigador asociado a la Universidad de California, Berkeley, describe esa ambición en términos de productividad: ofrecer a los científicos un “punto de arranque” potente, una representación (embedding) del dato que evite construir toda la tubería desde cero cada vez y permita alcanzar alta precisión con menos trabajo artesanal. En disciplinas con exceso de datos y escasez de tiempo, este tipo de herramienta puede cambiar la rutina diaria.
Walrus: un traductor universal de dinámicas continuas
Si AION-1 mira al cielo, Walrus se mete en el terreno de las cosas que fluyen, se propagan o se deforman de forma continua. La clave es que “fluido” aquí se interpreta de manera amplia: no solo agua o aire, también ondas acústicas, capas atmosféricas, o sistemas complejos donde variables como presión, velocidad y densidad evolucionan en el tiempo.
Walrus es un modelo tipo transformer diseñado para estabilizar el aprendizaje y aprovechar técnicas recientes de cómputo adaptativo. Su tarea se puede contar de forma simple: recibe una secuencia corta de “fotogramas” de un sistema (instantáneas) y predice el siguiente paso. Como cuando ves un vídeo a tirones y tu mente anticipa el siguiente movimiento: si la pelota iba hacia la derecha y acelerando, no te sorprende que aparezca un poco más allá en el próximo frame.
Para entrenarlo, Polymathic AI compiló un conjunto de datos propio llamado The Well, con múltiples escenarios y campos de la dinámica continua, sumando del orden de decenas de terabytes. El objetivo es que Walrus aprenda una gramática común de la evolución física: qué patrones se repiten cuando cambian ciertas condiciones, qué estructuras son estables, cómo se comportan las transiciones. En el texto de presentación se mencionan ejemplos muy dispares que el modelo puede abordar, desde fenómenos astrofísicos hasta señales de comunicaciones o el movimiento colectivo de bacterias, precisamente para subrayar el rasgo central: la transferencia entre dominios.
Miles Cranmer, de Cambridge (Departamento de Matemáticas Aplicadas y Física Teórica), destaca un punto que suele pasarse por alto cuando hablamos de IA: no es obvio que un modelo tan general funcione “de verdad” en física, porque los sistemas son variados y las escalas cambian. Que empiece a rendir de forma sólida es, para ese equipo, una señal de que hay regularidades compartidas que el modelo está captando.
El valor de generalizar: cuando un campo presta intuiciones a otro
La transferencia entre dominios se entiende bien con un ejemplo cotidiano que el propio equipo usa: los sentidos. Tu cerebro aprende relaciones entre vista, olfato y gusto; si un día estás resfriado y no hueles bien, sigues reconociendo una comida por su textura o su aspecto. En ciencia pasa algo parecido: si te falta resolución, o tu instrumento mide una parte del fenómeno y no otra, un modelo que ha visto “muchas combinaciones posibles” puede inferir la pieza ausente con más acierto que un método entrenado solo en un caso estrecho.
Shirley Ho, investigadora principal en Polymathic AI, lo describe como el efecto de haber conocido a mucha gente: cuando conoces a alguien nuevo, puedes situarlo en un mapa mental comparándolo con experiencias previas. En física, ese mapa es una representación estadística de comportamientos plausibles. El beneficio práctico es que el científico no arranca de cero ante cada experimento; arranca con un prior aprendido.
Herramientas para el día a día del laboratorio
En muchos grupos, el cuello de botella no es solo computacional, también humano: diseñar pipelines, limpiar datos, ajustar modelos, repetir hasta que algo funciona. Los modelos fundacionales buscan reducir esa carga, ofreciendo una base reutilizable. Con un modelo entrenado, un investigador puede adaptarlo a su caso específico con menos datos, menos tiempo de entrenamiento y, potencialmente, con resultados competitivos en tareas como predicción, reconstrucción o extracción de parámetros.
Esta visión no elimina la necesidad de modelos mecanicistas ni de teoría. Más bien introduce una nueva capa, parecida a una calculadora científica: no reemplaza saber matemáticas, pero acelera el trabajo y libera atención para las preguntas importantes. La diferencia es que aquí la “calculadora” aprende de datos y puede sugerir estructuras útiles cuando el sistema es demasiado complejo para abordarlo con una sola ecuación bonita.
Apertura y comunidad: código y datos como multiplicadores
Un detalle relevante es la intención de facilitar adopción comunitaria. Payel Mukhopadhyay, del Instituto de Astronomía de Cambridge, subraya el valor de que Walrus se publique con código y datos abiertos, porque eso permite que otros grupos prueben, adapten y auditen el enfoque. En ciencia, la apertura no es un adorno: es la vía para que una herramienta se convierta en infraestructura y no en una demo aislada.
Si estos modelos demuestran robustez en manos de terceros, podrían volverse piezas habituales en simulación y análisis, del mismo modo que hoy es normal usar librerías estándar para estadística o visualización. El éxito dependerá de algo muy concreto: que generalicen sin “alucinar física”, que sean interpretables cuando haga falta, y que realmente ahorren trabajo sin esconder sesgos del conjunto de entrenamiento.
