¿Te acuerdas de cuando esperábamos que cada nueva versión de un software o tecnología fuera algo revolucionario, como pasar de un móvil con botones a una pantalla táctil? Pues parece que con GPT-5, el próximo gran modelo de OpenAI, las cosas no están saliendo tan «mágicas» como se pensaba.
Según un artículo reciente en The Wall Street Journal, este modelo, cuyo nombre en clave es Orion, está enfrentando desafíos serios. Y sí, cuando hablamos de tecnología de punta, estos retos suelen traducirse en dos cosas: tiempo y dinero. Mucho de ambos. Pero vamos a desmenuzar todo esto para entender mejor qué está pasando.
Un camino lleno de baches
Imagínate que quieres preparar una cena espectacular para un montón de amigos, pero los ingredientes son caros, el horno no funciona bien, y al final el resultado no termina de justificar todo el esfuerzo. Algo así es lo que parece estar ocurriendo con GPT-5.
El proceso de entrenamiento de estos modelos es como enseñar a un niño: le das un montón de información (datos), y poco a poco aprende a usarlos para responder preguntas, escribir historias, resolver problemas matemáticos, ¡incluso programar! En el caso de GPT-5, OpenAI ya ha realizado al menos dos entrenamientos masivos, pero el primero fue más lento de lo esperado, lo que hizo que el segundo fuera aún más costoso y complicado.
Por lo visto, este modelo sí que es mejor que sus predecesores, pero no lo suficiente como para que valga la pena mantenerlo funcionando al costo actual. Es como si te comprases un coche carísimo y luego te dieras cuenta de que consume tanta gasolina que no puedes permitirte usarlo todos los días.
Innovar o morir: datos frescos y soluciones creativas
Aquí viene la parte interesante. En lugar de limitarse a los datos que ya existen en internet o a licencias de uso, OpenAI está apostando por crear datos nuevos. ¿Cómo lo hacen? Contratan personas para que escriban código, resuelvan problemas matemáticos o realicen tareas específicas. Es como si contrataran a un grupo de chefs para que te enseñen nuevas recetas cuando los libros de cocina ya no son suficientes.
Por otro lado, están utilizando algo llamado datos sintéticos, que básicamente son generados por otro modelo de OpenAI, llamado o1. Es como si estuvieran enseñando a GPT-5 con material creado por su «hermano menor». Ingenioso, ¿verdad? Aunque no está claro si esta estrategia está dando los resultados esperados, muestra cómo la compañía está intentando salir del atolladero.
¿Dónde queda Orion este año?
OpenAI ya dejó claro que no lanzará este modelo en 2024. Y eso nos deja pensando: ¿será que están replanteando su enfoque? Este tipo de retrasos no son raros en el mundo de la tecnología, pero con competidores tan fuertes como Google o Anthropic pisándole los talones, OpenAI no puede permitirse demasiados tropiezos.
Yo creo que no es el fin, pero sí un momento de ajuste. Estamos tan acostumbrados a avances rápidos y espectaculares que olvidamos que innovar a veces es un proceso lento y lleno de fracasos. Tal vez GPT-5 no sea el gran salto que esperábamos, pero eso no significa que no nos sorprenderá en el futuro.
¿Tú qué opinas? ¿Crees que estos problemas son normales o que OpenAI está perdiendo terreno?