Cuando hablamos de modelos grandes, solemos imaginar el momento épico del entrenamiento, como si fuera el rodaje de una película. En la práctica, lo que más factura no es grabar, sino emitir la serie cada día a millones de personas. Esa “emisión” se llama inferencia, el trabajo de generar respuestas en tiempo real cuando alguien… Continúa leyendo »
La nueva ola de IA para ciencia: modelos fundacionales entrenados con física, no con palabras
En los últimos años nos hemos acostumbrado a que la inteligencia artificial aprenda leyendo: millones de páginas, conversaciones y descripciones. Ese enfoque funciona muy bien cuando la tarea es escribir, resumir o buscar patrones en lenguaje. La ciencia, sin embargo, se parece menos a una biblioteca y más a un laboratorio lleno de instrumentos: telescopios, sensores, espectros, mapas de presión, velocidad, densidad. Por eso está ganando peso otra idea: entrenar modelos fundacionales con datos científicos reales, para que aprendan regularidades de la física y luego las apliquen a problemas distintos entre sí.
Esa es la apuesta de la colaboración Polymathic AI, con participación de la Universidad de Cambridge, que ha presentado dos modelos con ambición transversal: AION-1 para astronomía y Walrus para sistemas de tipo fluido. La promesa es sencilla de explicar: si has visto muchos tipos de “comportamientos de la naturaleza”, te cuesta menos entender uno nuevo, incluso con pocos datos. Continúa leyendo «La nueva ola de IA para ciencia: modelos fundacionales entrenados con física, no con palabras»