En muchas zonas de cultivo y polígonos industriales está ocurriendo algo que, a simple vista, parece una expansión clásica de almacenes logísticos. Solo que, en lugar de cajas y carretillas, estos edificios gigantes albergan filas interminables de servidores que funcionan como un único “cerebro” colectivo. Son los centros de datos hiperescalables orientados a IA, instalaciones pensadas específicamente para entrenar y ejecutar modelos de lenguaje y otros sistemas de IA generativa con una potencia que, hasta hace poco, se reservaba a la supercomputación científica.
Según MIT Technology Review, esta nueva ola de centros de datos está impulsada por compañías como OpenAI, Google, Amazon, Microsoft, Meta y Nvidia, con inversiones que ya se miden en cientos de miles de millones de dólares. Ese nivel de gasto no se parece a “comprar más servidores”, se parece a levantar una nueva capa de infraestructura, como si la economía digital estuviera echando más carriles a una autopista que ya va llena.
Cómo se construye un superordenador “del tamaño de un edificio”
La idea clave de estos complejos es la concentración: agrupar cientos de miles de chips especializados para que trabajen sincronizados, como si fueran una sola máquina. El protagonista aquí es la GPU (unidad de procesamiento gráfico), muy eficaz para hacer cálculos en paralelo, que es justo lo que requieren las redes neuronales modernas. MIT Technology Review menciona como ejemplo las Nvidia H100, uno de los modelos más usados en esta carrera por el rendimiento.
Para que esa masa de chips sea útil, necesita comunicarse a velocidades altísimas. La comparación más sencilla es imaginar un estadio lleno de personas resolviendo un puzle: si no pueden hablar entre sí con fluidez, el trabajo colectivo se atasca. En estos centros, esa “conversación” se sostiene con enormes cantidades de fibra óptica, una especie de sistema nervioso que conecta racks y racks de computación para que los datos viajen con latencia mínima.
A esa capa se le suma el almacenamiento: no basta con tener músculo; hay que alimentarlo. Los sistemas de almacenamiento industrial están continuamente enviando datos a los chips. Por eso estos centros no “se encienden” para una tarea y se apagan: zumban 24/7, porque su valor está en sostener entrenamientos largos y servicios de inferencia que millones de personas usan a la vez.
El verdadero cuello de botella: el calor
Cuando concentras tanta potencia de cálculo en tan poco espacio, el problema deja de ser “cuántos servidores caben” y pasa a ser “cómo sobreviven”. Los chips trabajan a densidades térmicas tan altas que la refrigeración por aire se queda corta. Es como intentar enfriar una sartén al rojo vivo soplándole: algo ayuda, pero no lo suficiente.
Por eso, la tendencia fuerte es la refrigeración líquida. En muchos diseños, las GPUs se montan sobre placas por las que circula agua fría, llevándose el calor de forma mucho más eficiente que el aire. MIT Technology Review cita soluciones de este tipo y referencias a enfoques descritos por medios técnicos como IEEE Spectrum. En otras configuraciones, los componentes se sumergen en fluidos dieléctricos (líquidos que no conducen electricidad), como si el hardware estuviera en una “bañera” diseñada para extraer calor.
Y aquí llega un detalle que suena casi futurista, pero está sobre la mesa: el uso de agua de mar como siguiente paso en ciertos proyectos y ubicaciones. El mensaje de fondo es claro: el diseño del centro ya no gira solo alrededor de la informática; gira alrededor de la termodinámica y el acceso a agua y energía.
Un apetito eléctrico del tamaño de una ciudad
La potencia se paga. Los centros más grandes que se están construyendo pueden superar el gigavatio de demanda eléctrica, una cifra comparable al consumo de ciudades enteras. Si la computación fuera un electrodoméstico, esto sería como enchufar de golpe millones de microondas y mantenerlos funcionando sin pausa.
El problema no es solo el volumen, también es el origen de esa electricidad. MIT Technology Review apunta que más de la mitad proviene de combustibles fósiles, mientras que las energías renovables cubren alrededor de una cuarta parte de la demanda en este tipo de despliegue. Esa mezcla significa emisiones, presión sobre redes eléctricas y, en muchos casos, decisiones incómodas para gobiernos y comunidades: ¿se prioriza alimentar nuevas industrias digitales o abaratar y descarbonizar el suministro general?
En este contexto se entienden dos movimientos: por un lado, el interés de algunas empresas en energía nuclear como suministro estable; por otro, ideas más experimentales como el sueño de Google de pensar en centros de datos alimentados por energía solar “en el espacio”, un concepto explorado en investigaciones de la propia compañía. Aunque suene lejano, ilustra hasta qué punto la energía se ha convertido en el gran límite físico de la IA.
Por qué crecen tan rápido: escalado y demanda “pegajosa”
Hay una razón técnica y otra comercial. La técnica suele resumirse en las llamadas “leyes de escalado”: en muchos modelos, más datos, más parámetros y más cómputo tienden a traducirse en mejores resultados, aunque no de forma infinita. La comercial tiene que ver con que la IA generativa se está insertando en productos cotidianos: asistentes, herramientas creativas, atención al cliente, entretenimiento, educación, fitness. MIT Technology Review lo retrata con ejemplos que van desde aplicaciones de compañía virtual hasta utilidades de salud.
Esa demanda es “pegajosa” porque, una vez que una empresa integra estos modelos, ajustar el servicio hacia abajo no es trivial: los usuarios se acostumbran a respuestas rápidas, a generación de imágenes instantánea, a traducción fluida. Y cuando la experiencia se vuelve un estándar, la presión por escalar infraestructura se vuelve constante.
El coste que sienten las comunidades: agua, ruido y factura
Mientras las empresas compiten por potencia, quienes viven cerca compiten por recursos básicos. La construcción y operación de estos centros puede traer empleo y actividad económica, pero también externalidades: escasez de agua en regiones tensionadas, ruido continuo por ventilación y equipos, y subidas de precios locales de energía cuando la demanda crece más rápido que la oferta. MIT Technology Review señala que estas fricciones ya aparecen en comunidades anfitrionas, con referencias a coberturas de medios como Bloomberg, The New York Times y Business Insider sobre impactos en tarifas, agua y ruido.
Aquí conviene una metáfora doméstica: si en tu edificio se instala un vecino que usa una potencia eléctrica descomunal y abre el grifo a todas horas para enfriar su maquinaria, tarde o temprano el resto lo nota, aunque pague sus facturas. La red eléctrica y el agua son sistemas compartidos; el problema no es solo “quién consume”, sino cómo se planifica el crecimiento para que no rompa el equilibrio local.
Hacia dónde puede moverse el sector: eficiencia, transparencia y planificación
Hay margen para mejorar, pero no hay atajos mágicos. La eficiencia puede venir por varias vías: hardware más eficiente, mejores técnicas de entrenamiento, reutilización de calor residual y diseños de refrigeración que reduzcan el uso de agua potable. La industria también puede empujar contratos eléctricos más limpios y proyectos de generación dedicados que no desplacen consumo residencial.
El punto más delicado es la transparencia. Sin datos claros sobre consumo, agua y emisiones, el debate público se queda en eslóganes. En investigación académica ya se insiste en medir impactos de forma más completa, incluyendo no solo la ejecución final, también el desarrollo y la fabricación de hardware, porque la huella total se reparte en varias capas. Si la IA se convierte en infraestructura crítica, la conversación debería parecerse menos a “qué app es la más popular” y más a “cómo se regula una industria intensiva en recursos”.
Lo que está en juego no es únicamente la velocidad de los modelos, sino el tipo de crecimiento que aceptamos: uno que trata la energía y el agua como infinitas, o uno que integra límites físicos desde el diseño. Los centros de datos hiperescalables son la fábrica del siglo XXI para la economía digital; la pregunta es si podrán funcionar como fábricas modernas: productivas, sí, pero también compatibles con redes eléctricas y ecosistemas que ya van al límite.
