La conversación sobre modelos de lenguaje y matemáticas suele moverse entre dos extremos: o “solo predicen texto”, o “ya razonan como un estudiante brillante”. La noticia reciente se sitúa justo en el punto incómodo del medio. Según contó Computerworld, y apoyándose en una publicación de Epoch AI, GPT-5.4 Pro logró resolver un problema de máxima dificultad dentro de un conjunto de retos académicos, uno que hasta ese momento ningún otro modelo había superado.
El detalle que vuelve esto interesante no es únicamente el acierto, sino el “cómo”. En el análisis preliminar, Epoch AI sugiere que el modelo localizó un preprint de 2011 que permitía recortar gran parte del trabajo esperado, y que el propio autor del problema no conocía ese documento. Es como si a alguien le pidieran demostrar un teorema en una pizarra y, antes de empezar, sacara del bolsillo una fotocopia olvidada de una demostración publicada hace años en un repositorio poco transitado. El resultado final es correcto, pero la historia cambia: no estamos viendo solo capacidad de deducción desde cero, sino una mezcla sofisticada de búsqueda, memoria y recombinación. Continúa leyendo «GPT-5.4 Pro y el “atajo” matemático: cuando la IA gana por memoria, búsqueda y contexto»