La edición 2026 del AI Index de Stanford HAI, publicada el lunes 13 de abril, es la radiografía más completa del estado de la inteligencia artificial que existe. Más de 400 páginas de datos que recogen avances técnicos, inversión, adopción y percepción pública. Y el dato que está dando más que hablar no es sobre capacidades técnicas, sino sobre la fractura entre quienes construyen la IA y quienes la usan: el 73% de los expertos espera un impacto positivo de la IA en el trabajo frente a solo el 23% del público general. Son 50 puntos de diferencia y un mensaje político difícil de digerir para la industria.
La brecha de percepción que el informe hace imposible ignorar
La misma fractura aparece en sanidad (84% de expertos vs 44% de ciudadanos), economía (69% vs 21%) y educación. El 53% de la población mundial ya usa IA generativa con regularidad (más rápida en adopción que el PC o el smartphone), pero el 52% dice que le pone nerviosa. La confianza en que los gobiernos regulen la IA adecuadamente es del 31% en EE.UU., del 27% en China y del 53% en la UE. El 64% de estadounidenses cree, además, que la IA reducirá el empleo neto en los próximos 20 años. La distancia entre la euforia técnica y la ansiedad social no se está cerrando: se está ensanchando.
El propio informe aconseja a la industria pasar del modo «comunicado de prensa» a la conversación pública estructurada. Para entender por qué este desajuste se nota especialmente en oficinas y empresas, recomiendo leer también nuestro análisis sobre por qué la IA se usa más en el trabajo pero la confianza cae, que aterriza el problema en términos de cultura corporativa.
China ha cerrado la brecha técnica con EE.UU. al 2,7%
Otros datos notables: China ha prácticamente borrado la ventaja del modelo líder estadounidense, que ahora supera al chino por solo 2,7% en los benchmarks comunes. SWE-bench Verified (un benchmark de programación) pasó del 60% al casi 100% en un año. La inversión privada global en IA alcanzó los 252.000 millones de dólares en 2025 (231.840 millones de euros al cambio actual), un 23% más que el año anterior. La cuota de modelos open weight chinos en uso global pasó del 1,2% a finales de 2024 al 29% un año después.
El coste medioambiental se está disparando
La emisión de carbono para entrenar modelos frontera se ha disparado: Grok 4 de xAI habría generado más de 72.000 toneladas de CO₂ equivalente según Stanford (aunque Epoch AI estima 140.000 toneladas). GPT-4, en 2023, se calculaba en 5.184 toneladas. La curva es exponencial. El debate sobre soberanía digital en Europa no es solo política comercial; también es una respuesta a que la infraestructura crítica de IA está concentrada en dos bloques geopolíticos. Es uno de los hilos que también vimos en nuestro repaso de las novedades en inteligencia artificial que marcaron el cierre de 2025.
Actualización a 26 de abril de 2026
Tras la publicación inicial, IEEE Spectrum y TechCrunch han desgranado dos datos adicionales del informe completo: la inversión en startups dedicadas a «alineación y seguridad» creció un 188% interanual (hasta 6.700 millones de dólares, unos 6.160 millones de euros), pero sigue representando menos del 3% del total de inversión en IA. Y el porcentaje de empresas con un comité formal de revisión ética de IA pasó del 14% en 2024 al 31% en 2025, con la UE liderando (47% en empresas con sede europea) y EE.UU. en la cola (24%). El Instituto Stanford HAI ha confirmado además que liberará un dataset interactivo en CSV y JSON el 15 de mayo para que cualquier investigador pueda cruzar las cifras del informe.
Mi valoración
Llevo desde 2018 leyendo cada edición del AI Index y este es, sin duda, el informe más político de los nueve publicados. El dato de la brecha de percepción es el más importante, porque explica fenómenos recientes que no tienen otra lectura lógica. Los comentarios en redes que aplaudieron el ataque incendiario contra la casa de Sam Altman (con un tono similar al que acompañó al asesinato del CEO de UnitedHealthcare en 2024) no son aislados: reflejan que para una parte creciente de la población, la industria de la IA es una fuerza hostil, no liberadora.
Los expertos discuten si la AGI llegará en cinco o diez años; la gente común se pregunta si va a perder su empleo en dos. Las dos conversaciones ocurren en planetas distintos. El AI Index documenta eso con datos: no es anécdota, es estructura. Mientras la industria no aborde esa desconexión con algo más que comunicados de prensa (mi sensación tras 18 horas leyendo el PDF entero del informe en un Kindle Scribe) las encuestas seguirán empeorando y la respuesta política se volverá más dura, en línea con lo que ya ha hecho la UE con el AI Act y lo que parece estar gestándose en Reino Unido. Es justo el tipo de tensión que ya analizamos en la entrega anterior del Stanford Transparency Index, donde la conclusión era que las grandes empresas de IA siguen siendo cajas negras incluso para los reguladores.
Preguntas frecuentes
¿Qué es exactamente el AI Index de Stanford?
El informe anual más completo sobre inteligencia artificial, producido por el Stanford Institute for Human-Centered AI (HAI) desde 2017. La edición 2026 tiene más de 400 páginas y combina datos de patentes, papers, inversión, adopción empresarial, percepción pública y consumo energético.
¿Cuál es la brecha principal entre expertos y público general?
El 73% de expertos cree que la IA mejorará el trabajo, frente al 23% del público general: 50 puntos de diferencia. La brecha se repite en sanidad (84% vs 44%) y economía (69% vs 21%).
¿Sigue EE.UU. liderando la carrera en IA?
El informe concluye que China ha prácticamente borrado la ventaja: el modelo líder estadounidense supera al chino por solo 2,7% en benchmarks comunes, y los modelos open weight chinos pasaron del 1,2% al 29% del uso global en un año.
