WWWhat's new

El lado invisible de la IA: el alto coste ambiental de una simple pregunta

gasto energetico y iA

La inteligencia artificial generativa se ha convertido en una herramienta habitual para resolver tareas cotidianas, desde redactar correos hasta resolver problemas matemáticos. Pero, tras cada respuesta aparentemente inofensiva, hay un proceso energético complejo que deja huella en el medio ambiente.

El proceso detrás de una respuesta de IA

Cuando haces una pregunta a una herramienta como ChatGPT, esa consulta no simplemente «flota» en el aire hasta que aparece una respuesta. Lo que sucede realmente es que cada palabra de tu solicitud se convierte en una serie de códigos numéricos llamados token IDs, que son enviados a centros de datos gigantescos, a menudo alimentados por energía proveniente de plantas de carbón o gas natural.

Allí, decenas de miles de chips ejecutan cálculos a gran velocidad para generar una respuesta. Este procedimiento, según el Instituto de Investigación de Energía Eléctrica, puede consumir hasta diez veces más energía que una búsqueda estándar en Google.

Más inteligencia, más emisiones

Un reciente estudio realizado por investigadores en Alemania evaluó 14 modelos de lenguaje diferentes, pidiéndoles tanto respuestas abiertas como preguntas de opción múltiple. ¿El resultado? Cuanto más compleja era la pregunta, mayor era la huella de carbono generada.

En algunos casos, una pregunta compleja podía generar hasta seis veces más emisiones que una simple, y los modelos más avanzados —aquellos con mayor capacidad de razonamiento— llegaron a producir hasta 50 veces más emisiones que sus equivalentes más básicos para responder exactamente lo mismo.

Esto se debe a que los modelos más potentes utilizan decenas de miles de millones de parámetros, que funcionan como los sesgos o preferencias que el modelo emplea para interpretar el lenguaje. Se puede comparar con el cerebro humano: cuantas más conexiones neuronales, más razonamiento es posible, pero también implica un mayor gasto energético.

El rol del usuario: cómo podemos reducir nuestro impacto

Una de las causas del alto consumo energético es la forma en que formulamos nuestras preguntas. Al pedir a una IA que sea detallada o educada, se alarga la respuesta innecesariamente. Según Maximilian Dauner, autor principal del estudio, la IA también “gasta energía en ser cortés”, algo que podríamos evitar siendo más directos.

Recomendaciones prácticas:

Por ejemplo, si necesitas calcular una raíz cuadrada, es más eficiente usar una calculadora que invocar a un modelo de lenguaje de última generación para que te explique paso a paso cómo se resuelve.

No todos los modelos son iguales

Otra clave para reducir nuestro impacto es elegir el modelo adecuado para cada tarea. Muchas veces, los usuarios utilizan herramientas altamente complejas cuando existen opciones más ligeras, rápidas y sostenibles.

Sasha Luccioni, experta climática en la empresa Hugging Face, destaca que los modelos específicos para tareas concretas suelen ser más pequeños y eficientes, y ofrecen resultados comparables para actividades como traducir textos o redactar resúmenes simples.

Así, usar un modelo de IA optimizado para programación cuando solo necesitas escribir un correo informal es como usar un horno industrial para calentar una taza de té.

Las sombras de la transparencia energética

Medir el verdadero impacto ecológico de la IA sigue siendo una tarea compleja. Variables como la ubicación del usuario, la red eléctrica usada, o el tipo de hardware empleado pueden cambiar considerablemente el gasto energético de una misma consulta.

Además, muchas empresas tecnológicas no revelan información detallada sobre el consumo de energía de sus servidores, lo que dificulta obtener cifras precisas. Especialistas como Shaolei Ren, de la Universidad de California en Riverside, señalan que incluso estimar promedios globales carece de sentido sin información abierta y específica de cada modelo y tarea.

Una propuesta interesante es que los servicios de IA puedan mostrar en tiempo real la cantidad estimada de emisiones por cada respuesta, lo que ayudaría a los usuarios a tomar decisiones más conscientes.

¿Vamos hacia un uso más responsable?

Aunque la tendencia actual apunta a integrar la inteligencia artificial en cada rincón de nuestra vida digital —desde buscadores hasta redes sociales y aplicaciones de mensajería—, muchos expertos advierten sobre la falta de necesidad real en muchos de estos casos.

Como señala Luccioni: “Nadie pidió chatbots de IA en todas partes”. Incluir estas herramientas en funciones que no lo requieren genera costes ambientales innecesarios.

Sin embargo, hay señales positivas. Ingenieros y desarrolladores están trabajando en modelos más eficientes, optimizaciones de software y centros de datos más sostenibles. Pero esto no exime a los usuarios de su papel: ser selectivos y conscientes puede marcar una diferencia significativa.

Salir de la versión móvil