Un nanoláser microscópico para llevar la luz dentro del microchip y recortar el gasto energético

Si piensas en un láser, quizá te venga a la cabeza un puntero o un equipo industrial. Lo interesante de lo que acaba de presentar un equipo de la Technical University of Denmark (DTU) es justo lo contrario: un nanoláser tan compacto que está pensado para convivir con miles de “hermanos” dentro de un solo microchip. La idea se cuenta en un trabajo revisado por pares publicado en Science Advances, con Jesper Mørk como uno de los autores, junto a investigadores como Meng Xiong y Yi Yu (DTU Electro).

La promesa es directa, aunque todavía depende de varios pasos: si la comunicación interna de los chips dejara de basarse principalmente en señales eléctricas y pasara a usar fotones (partículas de luz), los dispositivos podrían mover datos más deprisa y con menos pérdidas energéticas. En la nota de DTU difundida a través de EurekAlert! se llega a estimar que, en un escenario maduro, el consumo de energía de los ordenadores podría reducirse a la mitad gracias a este tipo de componentes. Conviene leerlo como una proyección razonada, no como un resultado ya garantizado en productos comerciales. Continúa leyendo «Un nanoláser microscópico para llevar la luz dentro del microchip y recortar el gasto energético»

Anthropic promete que sus centros de datos no encarecerán la luz: qué significa y por qué llega ahora

Los centros de datos se han convertido en el nuevo “gran electrodoméstico” de la economía digital. Si antes el consumo fuerte estaba en fábricas o grandes complejos industriales, ahora buena parte del tirón viene de edificios repletos de servidores que no paran ni de día ni de noche. En el caso de la IA generativa, la demanda energética se dispara: entrenar y operar modelos requiere muchos chips trabajando a plena carga y, por tanto, mucha electricidad y mucha refrigeración.

El conflicto aparece cuando esa electricidad no llega sola. Para conectar un centro de datos nuevo o ampliar uno existente, a menudo hay que reforzar subestaciones, líneas de transmisión y equipos de distribución. Son obras caras, y el gran debate local suele ser el mismo: ¿quién paga esas mejoras? Si el coste termina repartiéndose entre todos los usuarios de la red, los vecinos pueden notar subidas en su tarifa eléctrica, aunque no tengan nada que ver con la actividad del centro de datos. Es como si tu comunidad de vecinos tuviera que cambiar todo el cuadro eléctrico porque un único piso instala una cocina profesional: el edificio entero se ve afectado, aunque solo uno se beneficie.

En ese contexto, Anthropic ha anunciado que intentará evitar que sus data centers incrementen los costes de la electricidad para los residentes cercanos, según explicó la periodista Justine Calma en The Verge. La idea central es clara: la empresa dice que asumirá cargos mensuales más altos para cubrir el 100% de las mejoras necesarias para conectarse a la red, incluyendo la parte que de otro modo se trasladaría a los consumidores. Continúa leyendo «Anthropic promete que sus centros de datos no encarecerán la luz: qué significa y por qué llega ahora»

Los modelos de IA aprenden a gastar menos electricidad: qué significa “watt-horas por consulta” y por qué importa

Durante años, la conversación sobre modelos de IA se ha centrado en quién responde mejor, quién “razona” más o quién genera imágenes más realistas. En 2026, se está imponiendo otra carrera igual de decisiva: la de la eficiencia energética. La razón es simple: la demanda de computación crece tan rápido que ya no basta con sumar servidores; el sistema eléctrico y la infraestructura de centros de datos tienen límites físicos y económicos.

Los pronósticos sobre el aumento del consumo eléctrico asociado a centros de datos y cargas de IA llevan tiempo advirtiéndolo. Goldman Sachs Research, por ejemplo, ha estimado un fuerte incremento de la demanda eléctrica de los centros de datos hacia 2030. Y desde organismos públicos se remarca la magnitud del fenómeno: un informe del Congressional Research Service de EE. UU. sitúa el consumo anual de los centros de datos estadounidenses en 2023 alrededor de 176 TWh (aprox. el 4,4% de la electricidad del país), con proyecciones de crecimiento significativo hacia 2028.

Traducido a un ejemplo doméstico: si la IA fuese un electrodoméstico, no estaríamos discutiendo solo si cocina mejor, sino si se come la factura de la luz. Continúa leyendo «Los modelos de IA aprenden a gastar menos electricidad: qué significa “watt-horas por consulta” y por qué importa»

El auge de la IA y su huella de carbono en EE. UU.: cuánto pesa realmente y qué se puede hacer

La inteligencia artificial se ha colado en tareas tan distintas como filtrar currículos, optimizar rutas de reparto, detectar fraude o ajustar inventarios. Vista desde fuera, parece “magia”: un modelo responde, recomienda o predice en segundos. Por dentro, esa magia tiene un precio muy terrenal: electricidad. Cada consulta, cada entrenamiento y cada despliegue a gran escala se apoya en centros de datos y hardware especializado que consumen energía, y esa energía, según cómo se genere, se traduce en emisiones de CO₂.

Un trabajo publicado en Environmental Research Letters (IOP Publishing) pone números a este debate para el caso de Estados Unidos: si la adopción de IA se expande de forma amplia en la economía estadounidense, las emisiones anuales de dióxido de carbono podrían aumentar en torno a 900.000 toneladas. La cifra del estudio se concreta en unas 896.000 toneladas de CO₂ al año, vinculadas al incremento de demanda eléctrica por esa adopción. Los autores, Anthony R. Harding y Juan Moreno-Cruz, insisten en que el impacto es medible, pero pequeño si se compara con el total del país. Continúa leyendo «El auge de la IA y su huella de carbono en EE. UU.: cuánto pesa realmente y qué se puede hacer»

Meta pone sobre la mesa hasta 135.000 millones para IA en 2026 y el mensaje es claro: infraestructura primero

Cuando Meta habla de gastar entre 115.000 y 135.000 millones de dólares en 2026 en inversión de capital, no está anunciando una nueva función bonita para redes sociales; está describiendo un plan de obras. Es el tipo de presupuesto que suena más a construir autopistas que a lanzar una app. Varias informaciones publicadas a finales de enero —entre ellas The Financial Express y ITPro— coinciden en el rango alto y en la idea central: la compañía quiere asegurarse de que su capacidad de cómputo y sus centros de datos no sean el cuello de botella de su estrategia de IA durante 2026.

El dato impresiona por comparación: el propio grupo ya venía de un 2025 con un gasto muy alto en infraestructura relacionada con inteligencia artificial, pero el salto proyectado para 2026 se acerca a duplicar esa intensidad. En el lenguaje de las tecnológicas, esto se traduce en un movimiento de “quien llegue tarde al aparcamiento paga peor plaza”: si no reservas potencia de cálculo y energía hoy, entrenar modelos mañana sale mucho más caro o directamente se vuelve inviable. Continúa leyendo «Meta pone sobre la mesa hasta 135.000 millones para IA en 2026 y el mensaje es claro: infraestructura primero»

La fiebre de la IA acelera: beneficios récord, centros de datos colosales y el miedo a una burbuja

Hay periodos en tecnología que se sienten como una autopista de varios carriles en hora punta: todo se mueve rápido, hay más ruido del habitual y cualquier frenazo parece que puede provocar un choque en cadena. El auge actual de la inteligencia artificial encaja en esa imagen. Por un lado, las grandes compañías presentan resultados que suenan a récord histórico; por otro, dentro del propio sector se escucha un murmullo persistente: “¿y si esto está inflado?”.

Un buen termómetro de este clima es Nvidia, pieza clave porque sus chips sostienen buena parte de la infraestructura necesaria para entrenar y ejecutar modelos de IA. Según relataba The New York Times, la compañía comunicó un salto muy fuerte en su beneficio trimestral, un dato que alimenta la narrativa de que el mercado no solo crece, sino que lo hace con una intensidad poco común. El discurso del optimismo se apoya en una idea sencilla: si se venden tantos chips y tanta capacidad de cómputo, es porque la demanda es real.

La mirada escéptica, en cambio, hace una distinción importante. Comprar “picos y palas” no prueba por sí mismo que la mina esté dando oro. Puede significar que muchas empresas están invirtiendo para posicionarse “por si acaso”, esperando que el uso masivo y rentable de la IA llegue pronto. Y cuando el sector sube como un ascensor, cualquier bajada, por pequeña que sea, se interpreta como aviso: tal vez el entusiasmo está corriendo por delante de los ingresos sostenibles. Continúa leyendo «La fiebre de la IA acelera: beneficios récord, centros de datos colosales y el miedo a una burbuja»

Nvidia refuerza su apuesta por CoreWeave con 2.000 millones para acelerar 5 GW de capacidad de IA

El crecimiento de la IA se parece cada vez más a una gran ciudad en hora punta: no basta con tener más coches si las carreteras, los aparcamientos y las gasolineras no dan abasto. Con esa lógica, Nvidia anunció una inversión de 2.000 millones de dólares en CoreWeave para impulsar el plan de la compañía de sumar más de 5 gigavatios de potencia de computación orientada a IA antes de 2030, según informó TechCrunch. En vez de limitarse a vender chips, el gigante de los semiconductores está empujando también la infraestructura que permite que esos chips trabajen a pleno rendimiento: centros de datos con terreno, electricidad y diseño pensados específicamente para cargas de entrenamiento e inferencia.

La operación se materializa con la compra de acciones Clase A de CoreWeave a 87,20 dólares por título. Es una señal clara: Nvidia no solo quiere seguir siendo el proveedor de palas en la “fiebre del oro” de la IA; también quiere que haya suficientes minas abiertas para que esas palas se usen sin descanso. Continúa leyendo «Nvidia refuerza su apuesta por CoreWeave con 2.000 millones para acelerar 5 GW de capacidad de IA»

Oklo gana tracción en bolsa tras una mejora de recomendación y el empuje de un acuerdo nuclear ligado a Meta

La atención del mercado hacia Oklo no es nueva, pero a veces una sola nota de análisis funciona como ese empujón que hace que una conversación vuelva a la mesa. Según informó Barron’s, BofA Securities elevó su recomendación sobre la acción a “Comprar” desde “Neutral” y, al mismo tiempo, revisó al alza su precio objetivo hasta 127 dólares desde 111. El gesto tiene peso porque llega en un momento en el que el entusiasmo por la compañía convive con dudas muy concretas: no se cuestiona que la historia sea atractiva, se cuestiona el calendario y la ejecución.

En términos prácticos, una mejora de recomendación no convierte un proyecto en realidad de la noche a la mañana. Es más parecido a cuando un banco te preaprueba una hipoteca: no significa que ya tengas casa, pero sí que alguien ha revisado tu perfil y considera que el plan tiene coherencia si se cumplen ciertos pasos. En el caso de Oklo, el paso clave sigue siendo el mismo: demostrar que su camino hacia la comercialización puede sostenerse con acuerdos, financiación y avances regulatorios. Continúa leyendo «Oklo gana tracción en bolsa tras una mejora de recomendación y el empuje de un acuerdo nuclear ligado a Meta»

Centros de datos: prodigios de ingeniería que nadie quiere al lado

Hay edificios que no se construyen para ser visitados, sino para que el resto del mundo funcione. Los centros de datos de hiperescala son así: naves gigantescas repletas de GPU y otros chips especializados, alineados como estanterías de un supermercado que, en lugar de latas, guardan potencia de cálculo. Dentro, miles de procesadores trabajan en paralelo para alimentar modelos de inteligencia artificial que consumen y producen texto, imágenes o código a una velocidad difícil de imaginar. Según describía Mat Honan en MIT Technology Review, una sola instalación puede ocupar millones de pies cuadrados, contener cientos de miles de chips de gama alta conectados por kilómetros de cableado y devorar enormes cantidades de electricidad para mantener esas máquinas en marcha sin pausa.

Es fácil caer en la fascinación: la escala, la precisión logística, la refrigeración que parece sacada de una central industrial. También es fácil olvidar que, para quien vive cerca, no es “la nube”, sino un vecino nuevo, enorme, y con necesidades muy terrenales: energía, agua, suelo y permisos. Continúa leyendo «Centros de datos: prodigios de ingeniería que nadie quiere al lado»

Meta Compute: la apuesta de Meta por una infraestructura de IA propia y una huella energética a escala industrial

Meta lleva tiempo insinuando que su próximo gran campo de batalla no está solo en los modelos, sino en lo que los hace funcionar. Si la inteligencia artificial generativa fuese un coche de carreras, los modelos serían el chasis y la aerodinámica; la infraestructura de IA sería el motor, el combustible y el taller donde se ajusta todo para ganar décimas. En esa línea, Mark Zuckerberg anunció en Threads el lanzamiento de Meta Compute, una iniciativa para reforzar y expandir la capacidad de cómputo de la compañía con una ambición energética poco habitual: hablar de decenas de gigavatios durante esta década y, con el tiempo, cientos de gigavatios o más.

La noticia, publicada por TechCrunch el 12 de enero de 2026, encaja con el mensaje que Meta ya venía trasladando a analistas e inversores. En una llamada de resultados el verano pasado, su directora financiera, Susan Li, señaló que desarrollar una infraestructura puntera sería una ventaja central para crear mejores modelos y experiencias de producto, según recogió la propia compañía en ese contexto y recuerda TechCrunch. Continúa leyendo «Meta Compute: la apuesta de Meta por una infraestructura de IA propia y una huella energética a escala industrial»