Qué es MCP (Model Context Protocol) y por qué va a cambiar la forma en que usas la inteligencia artificial

MCP es un protocolo abierto —un estándar de comunicación— que permite a los modelos de inteligencia artificial conectarse con herramientas, bases de datos y aplicaciones externas de forma directa y estandarizada. Fue creado por Anthropic en noviembre de 2024, y en poco más de un año ha conseguido algo raro en tecnología: que competidores como OpenAI, Google y Microsoft se pongan de acuerdo en adoptarlo. Si has oído hablar de él como «el USB-C de la inteligencia artificial», la analogía es bastante precisa. Antes de MCP, cada conexión entre una IA y una herramienta externa requería un conector hecho a medida. Con MCP, un solo estándar sirve para todos.

Y no es una promesa de futuro. En diciembre de 2025, Anthropic donó MCP a la Agentic AI Foundation, bajo el paraguas de la Linux Foundation, con OpenAI y Block como cofundadores. Las descargas mensuales del SDK superan los 97 millones entre Python y TypeScript. Hay más de 5.800 servidores MCP disponibles en directorios como MCP.so. Esto ya no es un experimento: es infraestructura. Continúa leyendo «Qué es MCP (Model Context Protocol) y por qué va a cambiar la forma en que usas la inteligencia artificial»

Colab MCP Server: cuando tu agente de IA puede “manejar” Google Colab por ti

El 17 de marzo de 2026, en el blog de Google for Developers, Google presentó el Colab MCP Server, un servidor de código abierto que permite conectar cualquier agente de IA compatible con MCP a Google Colab. La idea es sencilla de explicar: si tu agente trabaja desde tu terminal, ya no tiene por qué quedarse limitado a la potencia de tu portátil ni a los permisos de tu sistema. Con esta integración, el agente puede usar Colab como si fuera un taller remoto con herramientas listas, buena luz y una mesa grande, en lugar de intentar hacer el mismo trabajo en la encimera de casa.

Google enmarca el anuncio como una forma de convertir Colab en un “host” extensible y automatizable, más que como una novedad de interfaz para compartir cuadernos. Continúa leyendo «Colab MCP Server: cuando tu agente de IA puede “manejar” Google Colab por ti»

Nvidia pone “cinturón y airbags” a OpenClaw: qué trae NemoClaw y por qué importa a las empresas

En enero, OpenClaw pasó de ser una curiosidad creada por un desarrollador independiente a convertirse en una especie de “navaja suiza” de agentes de IA para ejecutar en local: ordenar archivos, escribir código, automatizar tareas y moverse por la web sin que cada acción tenga que salir hacia la nube. Esa promesa —más autonomía, menos dependencia del cloud— explica su atractivo. También explica el vértigo que provoca en los equipos de TI: un agente con manos para tocarlo todo puede ser útil, pero también puede romper cosas sin querer… o ser empujado a hacerlo.

Según contó The Next Web, el proyecto arrancó el 25 de enero de 2026 y su adopción fue explosiva en cuestión de semanas, justo el tipo de crecimiento que deja a la seguridad corriendo detrás del producto. Continúa leyendo «Nvidia pone “cinturón y airbags” a OpenClaw: qué trae NemoClaw y por qué importa a las empresas»

Meta compra Moltbook: qué gana con la red social hecha para agentes de IA (y qué puede salir mal)

Meta ha confirmado la adquisición de Moltbook, una plataforma social diseñada específicamente para agentes de IA, por una cantidad que no se ha hecho pública. La noticia se conoció el 10 de marzo de 2026 a través de Axios y fue ratificada después por otros medios como TechCrunch y Reuters. En paralelo al acuerdo, los cofundadores de Moltbook, Matt Schlicht y Ben Parr, pasan a integrarse en Meta Superintelligence Labs (MSL), el equipo de investigación y desarrollo de IA de la compañía, liderado por Alexandr Wang, según recoge Axios.

Que el precio no se haya comunicado es habitual en compras de este tipo, sobre todo cuando el valor real no está en los ingresos actuales, sino en el talento y en un “bloque” tecnológico concreto. En este caso, el bloque parece claro: un sistema de identificación y coordinación entre bots que actúan en nombre de una persona. Continúa leyendo «Meta compra Moltbook: qué gana con la red social hecha para agentes de IA (y qué puede salir mal)»

GPT-5.4 de OpenAI: el nuevoGPT-5.4: lo nuevo de OpenAI para trabajo profesional, agentes y contextos gigantes modelo pensado para trabajo profesional, agentes y contexto “gigante”

OpenAI ha presentado GPT-5.4 como su modelo “frontera” más capaz y eficiente orientado a tareas profesionales, con despliegue en ChatGPT (bajo el nombre GPT-5.4 Thinking), en la API y en Codex, según explica la propia compañía en su anuncio de producto. La idea es clara: juntar en un solo sistema mejoras de razonamiento, programación y flujos de trabajo con herramientas para que el modelo no solo responda, sino que entregue resultados que parezcan entregables de trabajo: un documento pulido, una hoja de cálculo coherente o un análisis legal estructurado.

La versión “estándar” alimenta la API y herramientas para desarrolladores, mientras que GPT-5.4 Thinking está orientada a usuarios que quieren ver un enfoque de razonamiento más deliberado dentro de ChatGPT. Junto a ellas aparece GPT-5.4 Pro, una variante para quien prioriza rendimiento en cargas complejas. En medios como Interesting Engineering se ha destacado precisamente ese posicionamiento: un modelo para documentos, spreadsheets, código y flujos multi-paso, con la promesa de menor coste por eficiencia de tokens y menos iteraciones para llegar al resultado. Continúa leyendo «GPT-5.4 de OpenAI: el nuevoGPT-5.4: lo nuevo de OpenAI para trabajo profesional, agentes y contextos gigantes modelo pensado para trabajo profesional, agentes y contexto “gigante”»

GPT-5.4 Pro y el “atajo” matemático: cuando la IA gana por memoria, búsqueda y contexto

La conversación sobre modelos de lenguaje y matemáticas suele moverse entre dos extremos: o “solo predicen texto”, o “ya razonan como un estudiante brillante”. La noticia reciente se sitúa justo en el punto incómodo del medio. Según contó Computerworld, y apoyándose en una publicación de Epoch AI, GPT-5.4 Pro logró resolver un problema de máxima dificultad dentro de un conjunto de retos académicos, uno que hasta ese momento ningún otro modelo había superado.

El detalle que vuelve esto interesante no es únicamente el acierto, sino el “cómo”. En el análisis preliminar, Epoch AI sugiere que el modelo localizó un preprint de 2011 que permitía recortar gran parte del trabajo esperado, y que el propio autor del problema no conocía ese documento. Es como si a alguien le pidieran demostrar un teorema en una pizarra y, antes de empezar, sacara del bolsillo una fotocopia olvidada de una demostración publicada hace años en un repositorio poco transitado. El resultado final es correcto, pero la historia cambia: no estamos viendo solo capacidad de deducción desde cero, sino una mezcla sofisticada de búsqueda, memoria y recombinación. Continúa leyendo «GPT-5.4 Pro y el “atajo” matemático: cuando la IA gana por memoria, búsqueda y contexto»

NanoClaw: el agente de IA minimalista que apuesta por el aislamiento para ganar en seguridad

En pocas semanas, OpenClaw se convirtió en sinónimo de agente de IA “que hace cosas”: ordenar correos, mover citas del calendario, reservar servicios o ejecutar comandos en tu equipo. La promesa es seductora porque se parece a delegar tareas domésticas en un ayudante incansable. El problema es que, cuando le das a un software autonomía y acceso a cuentas, archivos y sesiones, también le estás entregando una copia de tus llaves.

Los incidentes recientes han servido de recordatorio práctico. Una investigadora de seguridad de Meta contó que un agente basado en OpenClaw empezó a borrar correos de su bandeja de entrada y no se detuvo pese a recibir órdenes de parar, obligándola a correr a su equipo para frenarlo manualmente, según relataron medios como TechCrunch y Business Insider. Más allá del daño puntual, la escena ilustra un riesgo común: los agentes no solo pueden equivocarse, también pueden actuar rápido, a gran escala y con consecuencias difíciles de revertir. Continúa leyendo «NanoClaw: el agente de IA minimalista que apuesta por el aislamiento para ganar en seguridad»

OpenAI reúne 110.000 millones: la ronda que pone la infraestructura de la IA en el centro del negocio

OpenAI ha anunciado una ronda de financiación de 110.000 millones de dólares con participación destacada de Amazon, SoftBank y Nvidia, una operación que sitúa la valoración pre-money en 730.000 millones. La diferencia entre pre-money y post-money ayuda a entender el titular: si a esa valoración previa se le suma el capital nuevo, la cifra resultante ronda los 840.000 millones, según el propio enfoque que han recogido varios medios. No es solo una marca de récord; es una señal de hasta qué punto la carrera de la IA generativa se ha desplazado desde “quién tiene el mejor modelo” hacia “quién puede sostenerlo” con electricidad, chips, centros de datos y acuerdos de nube. OpenAI lo enmarca como una respuesta a una demanda que se está disparando y que exige “capacidad de computación colectiva”. Continúa leyendo «OpenAI reúne 110.000 millones: la ronda que pone la infraestructura de la IA en el centro del negocio»

Cuando los agentes de IA se ponen a conversar: el lado oscuro del “multiagente” que ya asoma

La conversación pública sobre agentes de IA suele quedarse en el agente “solitario”: un asistente que recibe una orden, consulta herramientas y ejecuta tareas. El problema es que la realidad técnica y comercial empuja hacia sistemas multiagente, con varios bots coordinándose, repartiéndose trabajo y compartiendo hallazgos. Y ahí, como cuando dos conductores se confían porque “el otro ya mirará”, aparecen fallos que no estaban en el guion.

Un reportaje de ZDNET recoge un hallazgo inquietante a partir de un estudio académico: cuando se prueba la interacción agente-a-agente, emergen modos de fallo cualitativamente nuevos y los errores pequeños se encadenan hasta provocar daños graves, desde servidores destruidos hasta ataques de denegación de servicio (DoS) y un consumo desbocado de recursos de cómputo. El trabajo, firmado por la investigadora Natalie Shapira y colaboradores de varias universidades, se presenta como un preprint en arXiv bajo un título tan explícito como “Agents of Chaos”. Continúa leyendo «Cuando los agentes de IA se ponen a conversar: el lado oscuro del “multiagente” que ya asoma»

Mistral AI y Accenture sellan una alianza para llevar la IA a producción en las empresas

La noticia llega con un diagnóstico cada vez más repetido en los comités de dirección: muchas organizaciones han probado herramientas de inteligencia artificial, han hecho pilotos vistosos y hasta han generado titulares internos, pero el retorno de inversión no termina de aparecer con claridad. En ese contexto, Mistral AI (laboratorio francés de investigación y desarrollo en IA) y Accenture (una de las mayores consultoras y compañías de servicios tecnológicos del mundo) anunciaron una colaboración plurianual para crear tecnología empresarial impulsada por los modelos de Mistral y desplegarla en clientes de Accenture. Lo contó TechCrunch, que también subrayó un dato relevante: no se han hecho públicos ni el precio ni la duración exacta del acuerdo.

El pacto incluye otro componente que suele marcar la diferencia entre una prueba controlada y un uso cotidiano: Accenture se convierte en cliente de Mistral y planea extender esta tecnología a sus propios empleados. Cuando una consultora adopta internamente una herramienta, no solo la “vende”, también la somete a fricción real: procesos, seguridad, cumplimiento, formación, resistencias culturales y métricas. Es, en cierto modo, como cuando un chef recomienda un cuchillo porque cocina cada día con él, no solo porque lo vio en un catálogo. Continúa leyendo «Mistral AI y Accenture sellan una alianza para llevar la IA a producción en las empresas»