Greg Brockman dice que la IA escribe el 80% del código de OpenAI. Lo que esa cifra no dice es igual de importante

Publicado el

Ilustración surrealista de un robot y un humano programando juntos usando inteligencia artificial

El presidente de OpenAI, Greg Brockman, declaró el 1 de mayo de 2026 en la conferencia AI Ascent 2026 de Sequoia Capital que la inteligencia artificial escribe ya aproximadamente el 80% del código de su empresa. Lo publica Ana Maria Constantin en The Next Web con una mirada más matizada de lo habitual en este tipo de titulares: el artículo analiza no solo la cifra, sino qué significa exactamente y por qué hay razones para tratarla con escepticismo.

La declaración de Brockman es parte de un patrón que merece atención. En las últimas semanas, el presidente de OpenAI ha repetido variaciones del mismo argumento en el pódcast Big Technology, en The Knowledge Project y ahora en Sequoia. El mensaje central: la IA ha cruzado un umbral de productividad en ingeniería de software, la AGI está «al 70-80% del camino» según su definición personal, y la escasez de cómputo —no de capacidad de los modelos— es el límite real de lo que los laboratorios de IA pueden hacer.

¿Qué dice exactamente la cifra del 80%?

El problema con el dato es que admite dos interpretaciones muy distintas, y Brockman no especifica cuál de las dos está usando.

La primera interpretación es una afirmación de productividad: la IA escribe el 80% de las líneas de código que se incorporan al repositorio de OpenAI. Si esto fuera cierto en sentido estricto, implicaría que los ingenieros humanos solo son responsables de un quinto del código base.

La segunda es una afirmación de uso: la IA está involucrada —como autocompletado, sugerencia de refactorización, generación con revisión humana posterior— en el 80% del trabajo de programación. Esto es radicalmente diferente, porque incluye casos en los que el humano es el autor real del código y la IA juega un papel auxiliar.

La propia frase de Brockman es reveladora: «Es difícil saber qué porcentaje no está siendo escrito por IA». Esa formulación se alinea más con la segunda interpretación —uso amplio— que con la primera. Y la diferencia entre ambas es grande enough to materially alter what the figure means, como señala The Next Web.


El patrón de las cifras de los laboratorios de IA

Brockman no está solo en este tipo de declaraciones. Dario Amodei, CEO de Anthropic, afirmó el año pasado que la IA escribía el 90% del código de su empresa, con el objetivo de llegar al 100% en meses. GitHub Copilot tiene 4,7 millones de suscriptores de pago y una adopción del 90% entre las empresas del Fortune 100. Cursor llegó a 2.000 millones de dólares en ingresos anualizados en menos de tres años.

Los números son consistentes: los laboratorios que producen los modelos de IA reportan que esos modelos son transformadores para la ingeniería de software. Esa consistencia, sin embargo, no es necesariamente tranquilizadora. Es exactamente lo que cabría esperar aunque las cifras estuvieran infladas por incentivos internos.

Brockman describió en el podcast Big Technology de principios de abril una «inflexión de diciembre de 2025» en la que los modelos pasaron de poder hacer el 20% de las tareas de ingeniería típicas al 80%. Un ingeniero de OpenAI que antes no conseguía que la IA resolviera problemas de ingeniería de sistemas de bajo nivel ahora le entrega un documento de diseño y observa cómo el modelo implementa, instrumenta y lleva a producción el sistema resultante.

Eso es un salto real si es verdad. Pero la evidencia académica independiente cuenta una historia diferente. Un paper de febrero de 2026 del National Bureau of Economic Research encontró que el 80% de las empresas que usan activamente IA reportan cero impacto medible en productividad. Un estudio del MIT de 2025 concluyó que el 95% de los proyectos piloto corporativos de IA generativa no generaron retorno sobre la inversión. Y un estudio del grupo de investigación METR encontró que los desarrolladores que usan herramientas de IA tardan, de media, un 19% más en completar sus tareas, debido principalmente a la necesidad de revisar y corregir errores del modelo.

En wwwhatsnew.com cubrimos ya en septiembre de 2025 las promesas infladas de la IA en programación y la brecha entre expectativas y realidad, y los datos que manejábamos entonces apuntaban exactamente en la misma dirección que este paper del NBER.


Por qué el contexto financiero importa

La declaración de Brockman no es neutral. Hay dos elementos de contexto que la rodean y que cambian cómo interpretarla.

El primero es la escala del capital en juego. OpenAI captó 122.000 millones de dólares en financiación en 2026 y está apuntando a una OPI que podría valorar la empresa en 1 billón de dólares (≈ 940.000 millones de euros al cambio actual de 1 USD ≈ 0,94 €). Brockman ha sido explícito: el problema central para OpenAI ya no es la capacidad de los modelos sino la escasez de cómputo, y prácticamente todo el capital disponible va a cómputo. Esa estrategia de despliegue de capital se justifica, en parte significativa, exactamente con el tipo de afirmaciones de productividad que está haciendo.

El segundo es el mercado laboral. Las grandes empresas tecnológicas han despedido a miles de ingenieros en los últimos dos años, citando ganancias de productividad derivadas de la IA como justificación. Si la IA genera realmente el 80% del código, las consecuencias en el empleo son enormes. Si el 80% refleja un uso auxiliar más que una sustitución, los despidos están corriendo por delante de los datos reales.

Hay un detalle adicional que The Next Web señala y que me parece la observación más aguda del artículo: Brockman, por su propio relato y según su perfil en la lista TIME 100 de personas influyentes en IA, dedica aproximadamente el 80% de su tiempo de trabajo a programar, entre 60 y 100 horas semanales. El hombre que afirma que la IA escribe el 80% del código de OpenAI es también, por reputación, su programador humano más prolífico. Eso no invalida su argumento, pero añade una capa de complejidad al análisis del testigo.

En wwwhatsnew.com cubrimos el lanzamiento de Codex, el agente de programación autónomo de OpenAI, que es precisamente la herramienta que ejemplifica el tipo de automatización a la que Brockman se refiere: tareas que antes requerían horas ahora se delegan al agente, que trabaja en un entorno aislado siguiendo las reglas del repositorio.


Mi valoración

Llevo siguiendo el debate sobre el impacto real de la IA en programación desde las primeras versiones de Copilot, y la declaración de Brockman encaja en un patrón que identifico claramente: los CEO y presidentes de los laboratorios son al mismo tiempo los testigos más creíbles y los más interesados en creer en la transformación que describen.

Lo que más me convence es que hay algo real en el salto descrito. Los modelos de razonamiento de finales de 2025 son cualitativamente mejores que los de principios de año para tareas de ingeniería acotadas y bien definidas. El cambio no es lineal.

Lo que más me preocupa es la ausencia de auditoría independiente. Las cifras de los laboratorios —80% en OpenAI, 90% en Anthropic— se producen internamente para cumplir objetivos de adopción que nadie puede auditar desde fuera. La crítica del ingeniero Han-Chung Lee, citada en el artículo de The Next Web, señala exactamente esto: esas métricas se construyen para justificar decisiones ya tomadas.

La pregunta a 12 meses no es si la IA seguirá mejorando en programación —lo hará— sino si el mercado laboral de los ingenieros estará respondiendo a los datos reales de productividad o a las narrativas de los laboratorios. La diferencia es si los despidos anticipan una transformación real o la preceden por meses o años.

Mi predicción: en 2027 tendremos los primeros estudios independientes con acceso a datos reales de repositorios corporativos. Cuando eso ocurra, la cifra del «80%» se refinará hacia algo más preciso y, probablemente, más matizado. El debate no va a resolverse con declaraciones en conferencias de capital riesgo.


Preguntas frecuentes

¿Qué significa que la IA «escriba» el 80% del código?

Depende de cómo se mida. La interpretación más estricta —que la IA es el autor de 4 de cada 5 líneas de código en el repositorio— es diferente de la interpretación más amplia: que la IA participa de alguna forma (autocompletado, refactorización, generación con revisión) en el 80% del trabajo. Greg Brockman no especificó qué interpretación usa, y su propia formulación sugiere que se trata de la segunda, más amplia.

¿Qué dice la evidencia académica sobre la productividad de la IA en programación?

Los estudios independientes son más pesimistas que los reportes internos de los laboratorios. Un paper del National Bureau of Economic Research de febrero de 2026 encontró que el 80% de las empresas que usan IA activamente reportan cero impacto en productividad. Un estudio del MIT de 2025 concluyó que el 95% de los proyectos piloto corporativos no generaron retorno sobre la inversión. Otro estudio del grupo METR encontró que los desarrolladores con herramientas de IA tardan un 19% más en tareas concretas.

¿Por qué importa quién hace estas declaraciones?

El contexto financiero es relevante. OpenAI captó 122.000 millones de dólares en 2026 y apunta a una OPI valorada en 1 billón de dólares. Las afirmaciones de productividad de Brockman justifican parte de esa estrategia de inversión. Eso no significa que sean falsas, pero sí que deben leerse con el mismo escrutinio que cualquier claim corporativo en un contexto de valoración.