Durante años, la conversación sobre modelos de IA se ha centrado en quién responde mejor, quién “razona” más o quién genera imágenes más realistas. En 2026, se está imponiendo otra carrera igual de decisiva: la de la eficiencia energética. La razón es simple: la demanda de computación crece tan rápido que ya no basta con sumar servidores; el sistema eléctrico y la infraestructura de centros de datos tienen límites físicos y económicos.
Los pronósticos sobre el aumento del consumo eléctrico asociado a centros de datos y cargas de IA llevan tiempo advirtiéndolo. Goldman Sachs Research, por ejemplo, ha estimado un fuerte incremento de la demanda eléctrica de los centros de datos hacia 2030. Y desde organismos públicos se remarca la magnitud del fenómeno: un informe del Congressional Research Service de EE. UU. sitúa el consumo anual de los centros de datos estadounidenses en 2023 alrededor de 176 TWh (aprox. el 4,4% de la electricidad del país), con proyecciones de crecimiento significativo hacia 2028.
Traducido a un ejemplo doméstico: si la IA fuese un electrodoméstico, no estaríamos discutiendo solo si cocina mejor, sino si se come la factura de la luz.
“Watt-horas por consulta”: el contador de cada pregunta
Para comparar consumo eléctrico entre modelos, algunos informes usan una métrica muy intuitiva: los watt-horas por consulta (Wh/query). Es, literalmente, cuánta energía necesita el sistema para responder a una petición promedio. Si lo pensamos como un coche, sería el “litros por 100 km” de la IA.
Esta métrica ayuda a desmontar mitos: no existe una cifra universal para “una pregunta a un chatbot”, porque depende del modelo, del tamaño de la respuesta, del hardware, de la carga del sistema y hasta de si se usan funciones extra (búsqueda, herramientas, visión). Aun así, la comparación entre versiones del mismo proveedor permite ver si el software se ha vuelto menos “glotón” para hacer un trabajo similar.
En 2025 ya se popularizó la idea de que una consulta a un chatbot podía consumir varias veces más que una búsqueda tradicional. Euronews citaba estimaciones del Electric Power Research Institute (EPRI) que colocaban una petición tipo de ChatGPT en torno a 2,9 Wh, frente a unos 0,3 Wh de una búsqueda en Google. Con el tiempo, han aparecido análisis que rebajan esos valores para modelos más nuevos y optimizaciones recientes; Epoch AI, por ejemplo, estimó consumos típicos en el entorno de 0,3 Wh para ciertas configuraciones modernas. Lo importante no es escoger una cifra como dogma, sino entender la tendencia: cada décima de Wh importa cuando hay cientos de millones o miles de millones de consultas diarias.
El informe de TRG Datacenters: mejoras visibles en modelos punteros
Un informe atribuido a TRG Datacenters (febrero de 2026) pone el foco justo en esa comparación entre versiones: cuánto baja el consumo por petición cuando un proveedor lanza un modelo nuevo. TRG Datacenters publica de forma habitual materiales y análisis sobre demanda eléctrica y operación de centros de datos, lo que encaja con este tipo de evaluación.
Según el contenido compartido en el reporte reenviado, el mayor descenso relativo lo lograría Grok 4.1, con una caída del 38% en energía por consulta frente a su versión anterior, situándose alrededor de 0,34 Wh por petición. En el mismo documento, Gemini 3 aparecería con un recorte del 35% y un consumo de 0,24 Wh por consulta; Claude Opus 4.5 con un 27% menos (0,29 Wh); DeepSeek-V3.2 con un 25% menos (0,30 Wh); y GPT-5.2 con un 19% menos (0,34 Wh), destacando por volumen de uso, con 2.500 millones de consultas diarias según ese informe.
Aquí conviene detenerse en una idea que suele pasar desapercibida: un porcentaje menor puede tener un impacto mayor si la escala es gigantesca. Es como ahorrar “solo” un 5% en calefacción; si calientas un estudio, se nota poco, si calientas un estadio, el ahorro se convierte en dinero y megavatios reales.
Por qué la eficiencia también baja el coste por petición
El reporte relaciona el Wh por consulta con el coste medio por petición, aplicando tarifas eléctricas promedio. La lógica es directa: si un modelo necesita menos energía para responder, el coste operativo baja, aunque el hardware siga siendo caro. Esto no significa automáticamente que el usuario vaya a pagar menos por una API o una suscripción; intervienen márgenes, competencia y costes de infraestructura. Lo que sí indica es que el “suelo” del coste por respuesta puede bajar.
En paralelo, la eficiencia no solo depende del modelo “en sí”. Influyen la calidad del compilador, la forma de repartir cargas, la cuantización, el uso de cachés, el ajuste fino de lotes (batching) y hasta cómo se diseña la interacción para evitar trabajo innecesario. Es parecido a cocinar para mucha gente: puedes tener una receta mejor (el modelo) o puedes organizar la cocina mejor (infraestructura). Cuando se combinan ambas, el ahorro se multiplica.
Lo que no se ve: de la cifra por consulta al impacto en la red eléctrica
La métrica por consulta es útil, aunque no cuenta toda la historia. Un modelo puede ser eficiente por petición y, aun así, disparar el consumo total si su uso crece sin freno. Ese es el corazón del problema: incluso con mejoras constantes, la demanda global puede subir porque cada vez preguntamos más y usamos la IA para más tareas.
Por eso son relevantes los análisis macro sobre centros de datos. Informes públicos como el del CRS muestran que la electricidad asociada a estos complejos ya es una parte notable del sistema energético y podría crecer con fuerza en pocos años. TRG Datacenters, por su parte, ha recopilado y comentado previsiones de incremento de consumo para 2030 en materiales divulgativos apoyados en estimaciones de firmas como Goldman Sachs.
La lectura práctica es clara: si la IA quiere integrarse en todo (móviles, oficinas, escuelas, administraciones), necesita parecerse más a una bombilla LED y menos a un radiador.
Qué cambia para usuarios y empresas en 2026
Para el usuario final, estas mejoras se traducen en algo menos tangible, pero muy real: más disponibilidad, menos “colas” en horas punta, potencialmente menos restricciones de uso y servicios más estables. Para las empresas, la eficiencia energética se convierte en palanca competitiva. Si dos modelos rinden parecido, el que cuestione menos en electricidad y refrigeración puede ganar contratos, sobre todo en despliegues masivos.
También entra en juego la narrativa de sostenibilidad. Cada vez más compañías informan de objetivos climáticos, y el software que reduce consumo ayuda a cuadrar esa contabilidad. No es solo imagen: en algunos mercados, la capacidad de conseguir energía y permisos para centros de datos se está volviendo un freno real, así que gastar menos por consulta es una forma de “estirar” la infraestructura existente.
El punto crítico: medir bien para no confundir eficiencia con marketing
Un riesgo evidente es convertir números complejos en titulares simplificados. “Este modelo consume X” puede ser engañoso si no se explica el contexto. Incluso fuentes serias reconocen que muchas cifras son estimaciones con supuestos. El enfoque más honesto es el comparativo: mismo proveedor, misma metodología, versión nueva frente a antigua. Ahí sí se ve si hay avance técnico, aunque el número exacto varíe.
Si el informe de TRG Datacenters se consolida como referencia, lo valioso será menos el ranking y más la señal: los grandes laboratorios están encontrando maneras de servir más consultas con menos energía por respuesta. En una industria donde la tentación siempre ha sido “más potencia”, esa es una disciplina saludable.
