La inteligencia artificial se ha colado en tareas tan distintas como filtrar currículos, optimizar rutas de reparto, detectar fraude o ajustar inventarios. Vista desde fuera, parece “magia”: un modelo responde, recomienda o predice en segundos. Por dentro, esa magia tiene un precio muy terrenal: electricidad. Cada consulta, cada entrenamiento y cada despliegue a gran escala… Continúa leyendo »
Los modelos de IA aprenden a gastar menos electricidad: qué significa “watt-horas por consulta” y por qué importa
Durante años, la conversación sobre modelos de IA se ha centrado en quién responde mejor, quién “razona” más o quién genera imágenes más realistas. En 2026, se está imponiendo otra carrera igual de decisiva: la de la eficiencia energética. La razón es simple: la demanda de computación crece tan rápido que ya no basta con sumar servidores; el sistema eléctrico y la infraestructura de centros de datos tienen límites físicos y económicos.
Los pronósticos sobre el aumento del consumo eléctrico asociado a centros de datos y cargas de IA llevan tiempo advirtiéndolo. Goldman Sachs Research, por ejemplo, ha estimado un fuerte incremento de la demanda eléctrica de los centros de datos hacia 2030. Y desde organismos públicos se remarca la magnitud del fenómeno: un informe del Congressional Research Service de EE. UU. sitúa el consumo anual de los centros de datos estadounidenses en 2023 alrededor de 176 TWh (aprox. el 4,4% de la electricidad del país), con proyecciones de crecimiento significativo hacia 2028.
Traducido a un ejemplo doméstico: si la IA fuese un electrodoméstico, no estaríamos discutiendo solo si cocina mejor, sino si se come la factura de la luz. Continúa leyendo «Los modelos de IA aprenden a gastar menos electricidad: qué significa “watt-horas por consulta” y por qué importa»