Nvidia construyó buena parte del auge moderno de la IA con sus GPU, chips muy versátiles que sirven tanto para entrenar como para ejecutar modelos. Esa versatilidad fue una ventaja cuando el sector necesitaba una herramienta “para todo”. El problema es que la inferencia premia la especialización: baja latencia, alto rendimiento por vatio, buen precio… Continúa leyendo »

En el escenario de GTC 2026, Jensen Huang dedicó un tramo de su keynote a recordar que los videojuegos fueron el terreno donde Nvidia se hizo imprescindible, aunque hoy el peso del gaming en su negocio sea menor que en otras épocas. El anuncio elegido para representar ese “origen” fue DLSS 5, presentado como una… Continúa leyendo »

Cuando se habla de IA de vídeo (modelos capaces de generar clips a partir de texto o imágenes), la promesa suele sonar sencilla: escribir una frase y obtener una escena lista para compartir. Seedance 2.0, el nuevo modelo de ByteDance, encaja en esa idea y, según contó The Information y recogió TechCrunch, se estrenó en… Continúa leyendo »

HiLumi LHC: el “ensayo general” de 95 metros que prepara al LHC para la década de 2030

En una nave de pruebas en superficie, CERN ha puesto en marcha un proceso que suena simple y es todo lo contrario: enfriar hasta 1,9 kelvin (-271,3 °C) una instalación de 95 metros que reproduce, a escala real, cómo irá montado bajo tierra uno de los conjuntos más delicados del futuro High-Luminosity LHC (HiLumi LHC). Este banco de pruebas, conocido como Inner Triplet String (IT String), no es un prototipo pequeño ni una maqueta; es un “pasillo” completo de tecnología de aceleradores que imita la configuración que rodeará los puntos de colisión de ATLAS y CMS.

La razón de construir este escenario completo es muy práctica: el LHC funciona como un reloj suizo, y tocar piezas cercanas a los experimentos es como intervenir un motor de Fórmula 1 sin permitirte improvisar. En el IT String se prueba que todo encaja y se comporta como un sistema único: imanes, criogenia, alimentación eléctrica, protecciones, alineación y procedimientos. Según explicó Oliver Brüning, responsable de Aceleradores y Tecnología en CERN, el objetivo es validar la integración y pulir la forma de operar antes de instalarlo en el túnel. Continúa leyendo «HiLumi LHC: el “ensayo general” de 95 metros que prepara al LHC para la década de 2030»

De residuo incómodo a robot flexible: la impresión 4D con azufre que se mueve y se recicla

En el refinado de petróleo se genera, año tras año, una montaña de azufre elemental como subproducto. Parte se usa en industria, pero otra parte termina almacenada o desechada, como si fuera ese trastero al que vamos metiendo cosas “por si acaso” hasta que ya no cabe un alfiler. Un equipo de investigación en Corea del Sur ha planteado una salida más ambiciosa: convertir esos residuos de azufre en un material útil para fabricar robótica blanda que, tras imprimirse, puede cambiar de forma y hasta desplazarse sin motores.

La idea tiene un atractivo doble. Por un lado, ataca un problema de excedentes industriales; por otro, apunta a una generación de máquinas flexibles pensadas para interactuar con el mundo con más delicadeza que un robot rígido de metal. Continúa leyendo «De residuo incómodo a robot flexible: la impresión 4D con azufre que se mueve y se recicla»

Colab MCP Server: cuando tu agente de IA puede “manejar” Google Colab por ti

El 17 de marzo de 2026, en el blog de Google for Developers, Google presentó el Colab MCP Server, un servidor de código abierto que permite conectar cualquier agente de IA compatible con MCP a Google Colab. La idea es sencilla de explicar: si tu agente trabaja desde tu terminal, ya no tiene por qué quedarse limitado a la potencia de tu portátil ni a los permisos de tu sistema. Con esta integración, el agente puede usar Colab como si fuera un taller remoto con herramientas listas, buena luz y una mesa grande, en lugar de intentar hacer el mismo trabajo en la encimera de casa.

Google enmarca el anuncio como una forma de convertir Colab en un “host” extensible y automatizable, más que como una novedad de interfaz para compartir cuadernos. Continúa leyendo «Colab MCP Server: cuando tu agente de IA puede “manejar” Google Colab por ti»

Google amplía Personal Intelligence en EE. UU.: así se integra en Search, Gemini y Chrome

Google está llevando su propuesta de Personal Intelligence a más rincones de su ecosistema en Estados Unidos, con presencia en AI Mode dentro de Search, en la app de Gemini y en Gemini en Chrome. La idea es sencilla de explicar con un ejemplo cotidiano: en lugar de pedirte que recuerdes y repitas cada detalle, el sistema intenta “leer el contexto” como lo haría un amigo que ya conoce tus preferencias, tus compras recientes o tus planes, siempre que tú le hayas dado permiso para ello. Según ha explicado la propia Google en su blog The Keyword (17 de marzo de 2026), el objetivo es ofrecer respuestas más relevantes conectando información dispersa en distintas aplicaciones del usuario.

Ese matiz del permiso es clave: no se trata de una IA “adivinando” tu vida, sino de una capa de personalización que se apoya en lo que ya existe en tu cuenta de Google y que, si la activas, puede cruzar señales entre servicios. Si lo piensas como una mesa de trabajo, antes tenías papeles en carpetas separadas; ahora la propuesta es ponerlos en la misma mesa para que una consulta se resuelva con menos fricción. Continúa leyendo «Google amplía Personal Intelligence en EE. UU.: así se integra en Search, Gemini y Chrome»

GPT-5.4 mini y nano llegan a ChatGPT y a la API: lo que cambia cuando “pequeño” significa más rápido

OpenAI ha presentado GPT-5.4 mini y GPT-5.4 nano como versiones más ligeras de GPT-5.4, pensadas para escenarios donde el tiempo de respuesta y el coste pesan tanto como la calidad. La idea se entiende bien con una metáfora doméstica: no siempre necesitas un chef con estrella Michelin para picar verduras; a veces te basta con un buen cuchillo y un ritmo constante para que la cocina no se atasque. Con estos modelos ocurre algo parecido: se busca mantener buena parte de las capacidades del “modelo grande”, pero con una ejecución más ágil y barata.

La novedad no es solo que existan versiones “mini” y “nano”. Lo relevante es dónde se colocan en el producto y cómo se posicionan: OpenAI insiste en que están optimizados para código, razonamiento, comprensión multimodal y uso de herramientas, con mejoras claras frente a los modelos pequeños anteriores. La información procede tanto del anuncio de OpenAI como de lo publicado por Engadget, que destaca especialmente el impacto para usuarios no de pago. Continúa leyendo «GPT-5.4 mini y nano llegan a ChatGPT y a la API: lo que cambia cuando “pequeño” significa más rápido»

Mistral AI Forge: la apuesta por entrenar modelos propios sin ceder los datos a la nube

Mistral AI ha presentado Forge, una plataforma de entrenamiento de modelos orientada a empresa y sector público que pretende cubrir todo el ciclo de vida de un modelo: crearlo, especializarlo y mejorarlo de forma continua con datos propietarios. La idea de fondo es clara: si muchas organizaciones sienten que están “alquilando” inteligencia a través de APIs, Forge quiere facilitar que puedan poseer parte de esa inteligencia y operarla bajo sus reglas. La noticia la adelantó VentureBeat con declaraciones de Elisa Salamanca, responsable de producto en Mistral, que enmarca Forge como la caja de herramientas que usan internamente sus propios científicos para entrenar modelos y que ahora empaquetan para terceros.

En la práctica, Forge no se queda en el típico “sube tus ejemplos y ajusta un poco el comportamiento”. Se presenta como un taller completo, más parecido a una fábrica con líneas de montaje que a un simple destornillador. Si el fine-tuning es como retocar el bajo de un pantalón para que te quede mejor, el planteamiento de Forge se parece más a elegir el tejido, cortar el patrón y coser la prenda con tus medidas desde el principio. Continúa leyendo «Mistral AI Forge: la apuesta por entrenar modelos propios sin ceder los datos a la nube»

La extensión de Chrome para guardar imágenes que usaban millones acaba marcada como malware

Cualquiera que pase bastante tiempo en la web conoce la escena: ves una foto perfecta, clic derecho, “Guardar imagen como…” y listo. Esa rutina funciona bien cuando el archivo es JPG o PNG, formatos “de toda la vida” que casi cualquier visor abre sin quejarse. El problema aparece cuando la imagen está en WebP, un formato cada vez más común porque suele comprimir mejor y pesa menos. En ese caso, el mismo gesto de siempre te deja un archivo con extensión .webp que, según el dispositivo y la app que uses, puede abrirse sin problemas… o quedarse como una caja cerrada.

Para mucha gente, WebP es como recibir un paquete con un tipo de cierre distinto: no es que el contenido sea malo, es que te falta la herramienta adecuada para abrirlo. Y ahí es donde entran las extensiones del navegador, esos “atajos” que prometen resolver fricciones cotidianas con un clic. Continúa leyendo «La extensión de Chrome para guardar imágenes que usaban millones acaba marcada como malware»

El buque insignia en rendimiento que los gamers móviles no pueden perderse en 2026: la serie POCO X8

Los jugadores móviles a menudo se ven obligados a elegir entre rendimiento, autonomía y sensación en mano. Pero la llegada de la flamante serie POCO X8 cambia las reglas del juego por completo. Ya sea el Pro Max impulsado por el Dimensity 9500s o el Pro con el Dimensity 8500-Ultra, ambos vienen completamente equipados con marco metálico y una batería de enorme capacidad.

Continúa leyendo «El buque insignia en rendimiento que los gamers móviles no pueden perderse en 2026: la serie POCO X8»

Nvidia pone “cinturón y airbags” a OpenClaw: qué trae NemoClaw y por qué importa a las empresas

En enero, OpenClaw pasó de ser una curiosidad creada por un desarrollador independiente a convertirse en una especie de “navaja suiza” de agentes de IA para ejecutar en local: ordenar archivos, escribir código, automatizar tareas y moverse por la web sin que cada acción tenga que salir hacia la nube. Esa promesa —más autonomía, menos dependencia del cloud— explica su atractivo. También explica el vértigo que provoca en los equipos de TI: un agente con manos para tocarlo todo puede ser útil, pero también puede romper cosas sin querer… o ser empujado a hacerlo.

Según contó The Next Web, el proyecto arrancó el 25 de enero de 2026 y su adopción fue explosiva en cuestión de semanas, justo el tipo de crecimiento que deja a la seguridad corriendo detrás del producto. Continúa leyendo «Nvidia pone “cinturón y airbags” a OpenClaw: qué trae NemoClaw y por qué importa a las empresas»

Nvidia refuerza su apuesta por el robotaxi: BYD y Geely se suman a Drive Hyperion

El anuncio no llega solo. Junto a las dos firmas chinas también aparecen Isuzu y Nissan como nuevos socios en el uso de la plataforma Drive Hyperion, la propuesta “todo en uno” de Nvidia para construir y validar sistemas capaces de conducir sin intervención humana en áreas y condiciones determinadas. La foto que deja este movimiento es la de Nvidia intentando ocupar el centro del tablero: en China, en Japón y también en Estados Unidos, donde el robotaxi se está convirtiendo en una carrera industrial, tecnológica y política. Continúa leyendo «Nvidia refuerza su apuesta por el robotaxi: BYD y Geely se suman a Drive Hyperion»