En el refinado de petróleo se genera, año tras año, una montaña de azufre elemental como subproducto. Parte se usa en industria, pero otra parte termina almacenada o desechada, como si fuera ese trastero al que vamos metiendo cosas “por si acaso” hasta que ya no cabe un alfiler. Un equipo de investigación en Corea… Continúa leyendo »

El 17 de marzo de 2026, en el blog de Google for Developers, Google presentó el Colab MCP Server, un servidor de código abierto que permite conectar cualquier agente de IA compatible con MCP a Google Colab. La idea es sencilla de explicar: si tu agente trabaja desde tu terminal, ya no tiene por qué… Continúa leyendo »

Google está llevando su propuesta de Personal Intelligence a más rincones de su ecosistema en Estados Unidos, con presencia en AI Mode dentro de Search, en la app de Gemini y en Gemini en Chrome. La idea es sencilla de explicar con un ejemplo cotidiano: en lugar de pedirte que recuerdes y repitas cada detalle,… Continúa leyendo »

MiniMax M2.7: el modelo de IA chino que se mejora a sí mismo (y debería preocupar a OpenAI)

La startup china MiniMax acaba de lanzar M2.7, un modelo de inteligencia artificial propietario capaz de optimizar su propio código y gestionar entre el 30% y el 50% de su flujo de trabajo de investigación sin intervención humana. MiniMax M2.7 es lo que se conoce como un modelo autoevolutivo (self-evolving): un sistema de IA que no se limita a responder preguntas, sino que analiza sus propios fallos, modifica su infraestructura de entrenamiento y mejora iterativamente su rendimiento. En el benchmark SWE-Bench Pro —una prueba estándar que evalúa la capacidad de resolver problemas reales de ingeniería de software— ha alcanzado un 56,22%, situándose cerca de los modelos punteros occidentales.

La pregunta ya no es si la IA puede escribir código. Es si puede mejorar el código que la hace funcionar. Continúa leyendo «MiniMax M2.7: el modelo de IA chino que se mejora a sí mismo (y debería preocupar a OpenAI)»

Álex, el asistente legal de IA de Legálitas que ya usan más de 600.000 personas en España

La idea de preguntarle a una máquina si un despido es procedente, qué hacer ante una fianza de alquiler o cómo reclamar una cláusula de un contrato suena, hasta hace poco, como algo reservado a despachos grandes o a herramientas para profesionales. Álex se presenta justo en el lado contrario: un asistente legal de IA dirigido al público general, con respuestas inmediatas, gratuitas y en lenguaje comprensible. Según la información compartida por Legálitas en su nota de prensa, la herramienta ya supera los 600.000 usuarios en España y gestiona más de 15.000 consultas legales diarias.

Esa cifra, por sí sola, dice mucho del punto en el que estamos: hay una demanda real de orientación jurídica accesible, especialmente cuando la alternativa suele ser buscar en foros, leer titulares sueltos o interpretar por cuenta propia un artículo del BOE como quien intenta montar un mueble sin instrucciones. Continúa leyendo «Álex, el asistente legal de IA de Legálitas que ya usan más de 600.000 personas en España»

La Luna vuelve a moverse: un nuevo mapa revela crestas jóvenes y posibles sismos en los “mares” lunares

Durante décadas, la Luna se ha descrito como un mundo geológicamente “tranquilo” si se compara con la Tierra. Ese retrato sigue siendo útil para entender sus grandes rasgos, pero empieza a quedarse corto cuando bajamos la escala y miramos con lupa. Un equipo del Center for Earth and Planetary Studies del Museo Nacional del Aire y el Espacio (Smithsonian) y colaboradores ha elaborado el primer mapa global y el primer análisis sistemático de unas estructuras poco “famosas” fuera del ámbito científico: las pequeñas crestas de los mares lunares o SMRs (por sus siglas en inglés). El estudio se publicó en The Planetary Science Journal el 24 de diciembre de 2025, y su conclusión principal es clara: estas crestas son geológicamente jóvenes y están muy extendidas por los mares lunares (las grandes llanuras oscuras). La consecuencia práctica es inmediata: aparecen nuevos candidatos a explicar sismos lunares y, por tanto, nuevas variables para elegir zonas seguras de aterrizaje y futuros emplazamientos de exploración. Continúa leyendo «La Luna vuelve a moverse: un nuevo mapa revela crestas jóvenes y posibles sismos en los “mares” lunares»

Imanes para coches eléctricos sin tierras raras: la IA acelera la caza de nuevos materiales magnéticos

Gran parte de la electrónica que usamos a diario funciona como una puerta que se abre y se cierra gracias a un “tirón” invisible. Ese tirón lo aportan los materiales magnéticos: están en altavoces, sensores, equipos médicos, generadores y, de forma muy destacada, en los motores de los vehículos eléctricos. El problema es que los imanes más potentes y compactos que hoy dominan el mercado suelen apoyarse en tierras raras como el neodimio y el disprosio, elementos valiosos, con cadenas de suministro concentradas y sujetos a tensiones geopolíticas y de precio.

Cuando la industria habla de “reducir tierras raras”, no es un capricho ecológico: es una estrategia para abaratar, asegurar disponibilidad y planificar fabricación sin sobresaltos. Encontrar alternativas, sin perder rendimiento, se parece a intentar cocinar una receta compleja sin dos ingredientes clave. Se puede, pero exige probar muchísimas combinaciones y entender bien qué aporta cada componente. Continúa leyendo «Imanes para coches eléctricos sin tierras raras: la IA acelera la caza de nuevos materiales magnéticos»

HiLumi LHC: el “ensayo general” de 95 metros que prepara al LHC para la década de 2030

En una nave de pruebas en superficie, CERN ha puesto en marcha un proceso que suena simple y es todo lo contrario: enfriar hasta 1,9 kelvin (-271,3 °C) una instalación de 95 metros que reproduce, a escala real, cómo irá montado bajo tierra uno de los conjuntos más delicados del futuro High-Luminosity LHC (HiLumi LHC). Este banco de pruebas, conocido como Inner Triplet String (IT String), no es un prototipo pequeño ni una maqueta; es un “pasillo” completo de tecnología de aceleradores que imita la configuración que rodeará los puntos de colisión de ATLAS y CMS.

La razón de construir este escenario completo es muy práctica: el LHC funciona como un reloj suizo, y tocar piezas cercanas a los experimentos es como intervenir un motor de Fórmula 1 sin permitirte improvisar. En el IT String se prueba que todo encaja y se comporta como un sistema único: imanes, criogenia, alimentación eléctrica, protecciones, alineación y procedimientos. Según explicó Oliver Brüning, responsable de Aceleradores y Tecnología en CERN, el objetivo es validar la integración y pulir la forma de operar antes de instalarlo en el túnel. Continúa leyendo «HiLumi LHC: el “ensayo general” de 95 metros que prepara al LHC para la década de 2030»

De residuo incómodo a robot flexible: la impresión 4D con azufre que se mueve y se recicla

En el refinado de petróleo se genera, año tras año, una montaña de azufre elemental como subproducto. Parte se usa en industria, pero otra parte termina almacenada o desechada, como si fuera ese trastero al que vamos metiendo cosas “por si acaso” hasta que ya no cabe un alfiler. Un equipo de investigación en Corea del Sur ha planteado una salida más ambiciosa: convertir esos residuos de azufre en un material útil para fabricar robótica blanda que, tras imprimirse, puede cambiar de forma y hasta desplazarse sin motores.

La idea tiene un atractivo doble. Por un lado, ataca un problema de excedentes industriales; por otro, apunta a una generación de máquinas flexibles pensadas para interactuar con el mundo con más delicadeza que un robot rígido de metal. Continúa leyendo «De residuo incómodo a robot flexible: la impresión 4D con azufre que se mueve y se recicla»

Colab MCP Server: cuando tu agente de IA puede “manejar” Google Colab por ti

El 17 de marzo de 2026, en el blog de Google for Developers, Google presentó el Colab MCP Server, un servidor de código abierto que permite conectar cualquier agente de IA compatible con MCP a Google Colab. La idea es sencilla de explicar: si tu agente trabaja desde tu terminal, ya no tiene por qué quedarse limitado a la potencia de tu portátil ni a los permisos de tu sistema. Con esta integración, el agente puede usar Colab como si fuera un taller remoto con herramientas listas, buena luz y una mesa grande, en lugar de intentar hacer el mismo trabajo en la encimera de casa.

Google enmarca el anuncio como una forma de convertir Colab en un “host” extensible y automatizable, más que como una novedad de interfaz para compartir cuadernos. Continúa leyendo «Colab MCP Server: cuando tu agente de IA puede “manejar” Google Colab por ti»

Google amplía Personal Intelligence en EE. UU.: así se integra en Search, Gemini y Chrome

Google está llevando su propuesta de Personal Intelligence a más rincones de su ecosistema en Estados Unidos, con presencia en AI Mode dentro de Search, en la app de Gemini y en Gemini en Chrome. La idea es sencilla de explicar con un ejemplo cotidiano: en lugar de pedirte que recuerdes y repitas cada detalle, el sistema intenta “leer el contexto” como lo haría un amigo que ya conoce tus preferencias, tus compras recientes o tus planes, siempre que tú le hayas dado permiso para ello. Según ha explicado la propia Google en su blog The Keyword (17 de marzo de 2026), el objetivo es ofrecer respuestas más relevantes conectando información dispersa en distintas aplicaciones del usuario.

Ese matiz del permiso es clave: no se trata de una IA “adivinando” tu vida, sino de una capa de personalización que se apoya en lo que ya existe en tu cuenta de Google y que, si la activas, puede cruzar señales entre servicios. Si lo piensas como una mesa de trabajo, antes tenías papeles en carpetas separadas; ahora la propuesta es ponerlos en la misma mesa para que una consulta se resuelva con menos fricción. Continúa leyendo «Google amplía Personal Intelligence en EE. UU.: así se integra en Search, Gemini y Chrome»

GPT-5.4 mini y nano llegan a ChatGPT y a la API: lo que cambia cuando “pequeño” significa más rápido

OpenAI ha presentado GPT-5.4 mini y GPT-5.4 nano como versiones más ligeras de GPT-5.4, pensadas para escenarios donde el tiempo de respuesta y el coste pesan tanto como la calidad. La idea se entiende bien con una metáfora doméstica: no siempre necesitas un chef con estrella Michelin para picar verduras; a veces te basta con un buen cuchillo y un ritmo constante para que la cocina no se atasque. Con estos modelos ocurre algo parecido: se busca mantener buena parte de las capacidades del “modelo grande”, pero con una ejecución más ágil y barata.

La novedad no es solo que existan versiones “mini” y “nano”. Lo relevante es dónde se colocan en el producto y cómo se posicionan: OpenAI insiste en que están optimizados para código, razonamiento, comprensión multimodal y uso de herramientas, con mejoras claras frente a los modelos pequeños anteriores. La información procede tanto del anuncio de OpenAI como de lo publicado por Engadget, que destaca especialmente el impacto para usuarios no de pago. Continúa leyendo «GPT-5.4 mini y nano llegan a ChatGPT y a la API: lo que cambia cuando “pequeño” significa más rápido»

Mistral AI Forge: la apuesta por entrenar modelos propios sin ceder los datos a la nube

Mistral AI ha presentado Forge, una plataforma de entrenamiento de modelos orientada a empresa y sector público que pretende cubrir todo el ciclo de vida de un modelo: crearlo, especializarlo y mejorarlo de forma continua con datos propietarios. La idea de fondo es clara: si muchas organizaciones sienten que están “alquilando” inteligencia a través de APIs, Forge quiere facilitar que puedan poseer parte de esa inteligencia y operarla bajo sus reglas. La noticia la adelantó VentureBeat con declaraciones de Elisa Salamanca, responsable de producto en Mistral, que enmarca Forge como la caja de herramientas que usan internamente sus propios científicos para entrenar modelos y que ahora empaquetan para terceros.

En la práctica, Forge no se queda en el típico “sube tus ejemplos y ajusta un poco el comportamiento”. Se presenta como un taller completo, más parecido a una fábrica con líneas de montaje que a un simple destornillador. Si el fine-tuning es como retocar el bajo de un pantalón para que te quede mejor, el planteamiento de Forge se parece más a elegir el tejido, cortar el patrón y coser la prenda con tus medidas desde el principio. Continúa leyendo «Mistral AI Forge: la apuesta por entrenar modelos propios sin ceder los datos a la nube»