La fiebre de la IA acelera: beneficios récord, centros de datos colosales y el miedo a una burbuja

Hay periodos en tecnología que se sienten como una autopista de varios carriles en hora punta: todo se mueve rápido, hay más ruido del habitual y cualquier frenazo parece que puede provocar un choque en cadena. El auge actual de la inteligencia artificial encaja en esa imagen. Por un lado, las grandes compañías presentan resultados que suenan a récord histórico; por otro, dentro del propio sector se escucha un murmullo persistente: “¿y si esto está inflado?”.

Un buen termómetro de este clima es Nvidia, pieza clave porque sus chips sostienen buena parte de la infraestructura necesaria para entrenar y ejecutar modelos de IA. Según relataba The New York Times, la compañía comunicó un salto muy fuerte en su beneficio trimestral, un dato que alimenta la narrativa de que el mercado no solo crece, sino que lo hace con una intensidad poco común. El discurso del optimismo se apoya en una idea sencilla: si se venden tantos chips y tanta capacidad de cómputo, es porque la demanda es real.

La mirada escéptica, en cambio, hace una distinción importante. Comprar “picos y palas” no prueba por sí mismo que la mina esté dando oro. Puede significar que muchas empresas están invirtiendo para posicionarse “por si acaso”, esperando que el uso masivo y rentable de la IA llegue pronto. Y cuando el sector sube como un ascensor, cualquier bajada, por pequeña que sea, se interpreta como aviso: tal vez el entusiasmo está corriendo por delante de los ingresos sostenibles. Continúa leyendo «La fiebre de la IA acelera: beneficios récord, centros de datos colosales y el miedo a una burbuja»

Microsoft estrena Maia 200 y mantiene su apuesta por Nvidia y AMD: qué cambia en la carrera de los chips de IA

Microsoft ha empezado a desplegar en uno de sus centros de datos su primera hornada de chips de IA diseñados en casa. El nombre elegido, Maia 200, ya deja claro que la compañía quiere que se hable de él como una pieza de primera línea. Según contó TechCrunch, Microsoft lo describe como un “motor” para inferencia, que es la parte del trabajo de la IA que sucede cuando el modelo ya está entrenado y toca ponerlo a producir respuestas, clasificar información, generar texto o resumir documentos a escala.

Si el entrenamiento se parece a “enseñar” a un estudiante durante meses, la inferencia es el momento de usar ese aprendizaje para resolver ejercicios en un examen… millones de veces al día. En la nube, ese examen se llama chat corporativo, copilotos de productividad, análisis de seguridad, atención al cliente o traducción automática. Es la fase donde cada milisegundo importa y donde el coste por consulta determina si un servicio es rentable o se convierte en un pozo sin fondo.

Microsoft también compartió cifras de rendimiento y afirmó que Maia 200 supera a chips recientes de la competencia de hiperescaladores, como Trainium de Amazon y las TPU de Google. Ese tipo de comparaciones se han vuelto casi obligatorias en cada lanzamiento de hardware, porque el mensaje de fondo es uno: quien controle el silicio, controla el margen. Continúa leyendo «Microsoft estrena Maia 200 y mantiene su apuesta por Nvidia y AMD: qué cambia en la carrera de los chips de IA»

Nvidia refuerza su apuesta por CoreWeave con 2.000 millones para acelerar 5 GW de capacidad de IA

El crecimiento de la IA se parece cada vez más a una gran ciudad en hora punta: no basta con tener más coches si las carreteras, los aparcamientos y las gasolineras no dan abasto. Con esa lógica, Nvidia anunció una inversión de 2.000 millones de dólares en CoreWeave para impulsar el plan de la compañía de sumar más de 5 gigavatios de potencia de computación orientada a IA antes de 2030, según informó TechCrunch. En vez de limitarse a vender chips, el gigante de los semiconductores está empujando también la infraestructura que permite que esos chips trabajen a pleno rendimiento: centros de datos con terreno, electricidad y diseño pensados específicamente para cargas de entrenamiento e inferencia.

La operación se materializa con la compra de acciones Clase A de CoreWeave a 87,20 dólares por título. Es una señal clara: Nvidia no solo quiere seguir siendo el proveedor de palas en la “fiebre del oro” de la IA; también quiere que haya suficientes minas abiertas para que esas palas se usen sin descanso. Continúa leyendo «Nvidia refuerza su apuesta por CoreWeave con 2.000 millones para acelerar 5 GW de capacidad de IA»

Nvidia acelera su apuesta por el coche autónomo y se acerca al terreno de Tesla

Nvidia suele aparecer en conversaciones sobre chips, tarjetas gráficas y centros de datos, no sobre coches. Por eso llamó la atención que su CEO, Jensen Huang, utilizara CES 2026 en Las Vegas para anunciar que la compañía está acelerando el desarrollo de software y tecnologías para conducción autónoma apoyándose en los modelos de IA llamados Alpamayo. En una feria donde cada marca compite por el titular más llamativo, este movimiento destaca por una razón sencilla: Nvidia no quiere fabricar automóviles, quiere convertirse en la “capa inteligente” que muchos vehículos usarán para ver, decidir y moverse.

La lectura industrial es clara. Tesla ha defendido un enfoque muy cerrado: controla su hardware, su software y el despliegue de sus funciones de Full Self-Driving dentro de su propio ecosistema. Nvidia, en cambio, busca lo contrario: ofrecer una plataforma de IA para automoción que puedan adoptar varias marcas a la vez. La diferencia se parece a lo que ocurrió en los smartphones: unas compañías apostaron por sistemas cerrados, otras por licenciar una base tecnológica y crecer a través de socios. No es una comparación perfecta, pero ayuda a entender por qué el anuncio ha despertado el debate sobre si Nvidia puede terminar compitiendo con Tesla en el terreno de la autonomía, aunque no venda ni un solo coche con su logo. Continúa leyendo «Nvidia acelera su apuesta por el coche autónomo y se acerca al terreno de Tesla»

GeForce Now prepara app nativa para Linux: qué cambia para jugar en la nube sin depender del navegador

La noticia llega con un matiz que, para muchos, suena a ajuste de prioridades: NVIDIA ha confirmado que trabaja en una aplicación nativa de GeForce Now para Linux. No es un detalle menor. Durante años, el mensaje implícito para quien usaba Linux en un PC de sobremesa o portátil era “puedes entrar, pero por la puerta lateral”: navegador web, soluciones de terceros o configuraciones con más paciencia que glamour. Según Ubergizmo, el plan es ofrecer un cliente oficial en Linux que reduzca fricción y mejore la experiencia general, algo que encaja con el momento tecnológico que vivimos: hardware que aún funciona, usuarios que no quieren tirar el equipo y un interés creciente por alternativas al ecosistema Windows.

En términos sencillos, pasar de una versión web a una app nativa se parece a cambiar de ver una película por una ventana a sentarte en el sofá con el mando. La película es la misma, sí, pero el trayecto suele ser más estable, más predecible y con menos “ruido” alrededor. Continúa leyendo «GeForce Now prepara app nativa para Linux: qué cambia para jugar en la nube sin depender del navegador»

Nvidia mueve ficha con Vera Rubin: la nueva plataforma de chips de IA que busca mantener su ventaja

Nvidia eligió el escenario más ruidoso del año tecnológico, el Consumer Electronics Show (CES) de Las Vegas, para enseñar su siguiente gran apuesta en chips de IA. Durante la keynote de Jensen Huang, la compañía desgranó su nueva plataforma Vera Rubin, un nombre que rinde homenaje a la astrónoma estadounidense Vera Rubin y que llega con un mensaje claro: Nvidia quiere seguir siendo el proveedor de referencia en el hardware que alimenta los modelos de inteligencia artificial. La información, difundida por AFP a través de Tech Xplore/Science X Network, sitúa este anuncio como una respuesta directa a un mercado que se ha vuelto mucho más competitivo y, sobre todo, menos paciente.

La razón es fácil de entender si se piensa en los centros de datos como cocinas industriales. Durante años, Nvidia ha sido el fabricante de los “fogones” preferidos para cocinar IA a gran escala. Esa ventaja se ha traducido en una posición dominante: la empresa mantiene una cuota estimada cercana al 80% del mercado global de chips para centros de datos orientados a IA, según el mismo despacho. Continúa leyendo «Nvidia mueve ficha con Vera Rubin: la nueva plataforma de chips de IA que busca mantener su ventaja»

Nvidia se apoya en Groq para acelerar la inferencia de IA sin comprar la compañía

Nvidia ha dado un paso llamativo en la carrera por la IA generativa: ha firmado una licencia no exclusiva de propiedad intelectual con Groq, un diseñador de chips centrado en inferencia, y al mismo tiempo ha incorporado a parte del liderazgo técnico de esa empresa. El matiz es clave: según la propia Nvidia, no hay adquisición. La operación se articula como un permiso para usar tecnología de Groq y como un fichaje de talento, sin absorber el negocio completo.

La fórmula suena a “me quedo con lo que necesito y evito el resto”. Y, en el contexto actual de la industria, tiene sentido. Comprar una empresa implica heredar líneas de negocio, contratos, riesgos regulatorios y obligaciones operativas. Con una licencia y contrataciones selectivas, Nvidia puede probar, integrar y escalar tecnología con menos fricción y con un perímetro más controlado. Groq, por su parte, comunicó el acuerdo el 24 de diciembre y confirmó que su fundador, Jonathan Ross, su presidente, Sunny Madra, y otros miembros del equipo se unirían a Nvidia para avanzar y ampliar lo licenciado. Continúa leyendo «Nvidia se apoya en Groq para acelerar la inferencia de IA sin comprar la compañía»

Nvidia apuesta por la infraestructura abierta para la era de la IA agente con Nemotron 3

Nvidia ha lanzado una nueva familia de modelos de inteligencia artificial que marcan un giro estratégico hacia una infraestructura abierta diseñada para el desarrollo de agentes de IA capaces de operar en contextos extensos y tareas prolongadas. Esta nueva propuesta, llamada Nemotron 3, está pensada para empresas que desean construir sus propias aplicaciones sin depender de proveedores de modelos cerrados o tener que entrenar modelos fundacionales desde cero.

La idea es sencilla pero poderosa: en vez de ofrecer una solución «lista para usar», Nvidia proporciona herramientas modulares, optimizadas para su propio hardware, que los desarrolladores pueden adaptar a sus necesidades. Es, como dijo un analista del sector, más un «kit de comida» que una cena servida. Continúa leyendo «Nvidia apuesta por la infraestructura abierta para la era de la IA agente con Nemotron 3»

Nvidia entra con fuerza al terreno de los modelos de IA de código abierto

Nvidia lleva años consolidándose como el principal proveedor de chips para inteligencia artificial, con sus GPUs dominando centros de datos y laboratorios de investigación en todo el mundo. Pero este dominio en infraestructura ya no parece ser suficiente. La compañía está apostando por un nuevo frente: los modelos de IA de código abierto, una estrategia que busca reforzar su ecosistema y responder a la creciente influencia de China en este terreno. Continúa leyendo «Nvidia entra con fuerza al terreno de los modelos de IA de código abierto»

Estados Unidos autoriza a Nvidia a exportar chips H200 a China pese a presiones del Congreso

Estados Unidos ha dado un paso controvertido en su política comercial al permitir que Nvidia exporte sus potentes chips H200 a clientes aprobados en China, una decisión que marca un giro respecto a las restricciones anteriores impuestas a las tecnológicas del país. Esta autorización, anunciada tras semanas de incertidumbre, ha generado reacciones encontradas en el ámbito político y comercial, sobre todo por el trasfondo geopolítico que envuelve la competencia tecnológica entre China y Estados Unidos. Continúa leyendo «Estados Unidos autoriza a Nvidia a exportar chips H200 a China pese a presiones del Congreso»