Los sistemas de IA generativa se han convertido en una fábrica de imágenes, textos y sonidos a una velocidad que ningún creador humano puede igualar. Su truco, explicado sin mística, consiste en aprender patrones a partir de enormes colecciones de contenido hecho por personas, recopilado de internet y otras fuentes. El detalle inquietante es qué… Continúa leyendo »
La nueva ola de IA para ciencia: modelos fundacionales entrenados con física, no con palabras
En los últimos años nos hemos acostumbrado a que la inteligencia artificial aprenda leyendo: millones de páginas, conversaciones y descripciones. Ese enfoque funciona muy bien cuando la tarea es escribir, resumir o buscar patrones en lenguaje. La ciencia, sin embargo, se parece menos a una biblioteca y más a un laboratorio lleno de instrumentos: telescopios, sensores, espectros, mapas de presión, velocidad, densidad. Por eso está ganando peso otra idea: entrenar modelos fundacionales con datos científicos reales, para que aprendan regularidades de la física y luego las apliquen a problemas distintos entre sí.
Esa es la apuesta de la colaboración Polymathic AI, con participación de la Universidad de Cambridge, que ha presentado dos modelos con ambición transversal: AION-1 para astronomía y Walrus para sistemas de tipo fluido. La promesa es sencilla de explicar: si has visto muchos tipos de “comportamientos de la naturaleza”, te cuesta menos entender uno nuevo, incluso con pocos datos. Continúa leyendo «La nueva ola de IA para ciencia: modelos fundacionales entrenados con física, no con palabras»