La “fiebre” de los agentes de IA ya está aquí y la web no tiene barandillas suficientes

Durante años, la idea dominante de la inteligencia artificial de consumo fue la del asistente conversacional: tú preguntas, el sistema responde. En 2025 y 2026 esa imagen se ha quedado corta porque han proliferado los agentes de IA, herramientas que no solo contestan, sino que ejecutan tareas encadenadas con poca intervención humana: buscar información, abrir webs, rellenar formularios, iniciar sesión, reservar, programar, mover archivos o coordinar pasos como si fueran un becario incansable con acceso a tu navegador.

Un ejemplo reciente, citado por Gizmodo (AJ Dellinger, 19 de febrero de 2026), es el caso de OpenClaw, un agente open source que “arrasó” por sus capacidades autónomas y por la inquietud que generó en seguridad. El problema es que el debate suele quedarse en anécdotas: impresiona ver a un bot navegar como una persona, pero cuesta saber cuántos hay, qué hacen realmente y con qué normas. Para poner números y contexto, el MIT a través de CSAIL publicó su AI Agent Index 2025, un inventario y análisis de agentes en operación “en la naturaleza”, con foco en transparencia y guardarraíles. Continúa leyendo «La “fiebre” de los agentes de IA ya está aquí y la web no tiene barandillas suficientes»

¿Qué es la inyección de prompt y por qué pone en riesgo a la inteligencia artificial?

Cada vez que interactuamos con un chatbot como ChatGPT, asumimos que hay una capa de seguridad que impide que la IA diga o haga cosas indebidas. Sin embargo, existe una técnica que desafía esa suposición y que ha generado una gran preocupación entre expertos en ciberseguridad: la inyección de prompt.

Esta técnica, tan ingeniosa como peligrosa, permite manipular modelos de lenguaje como si fueran títeres, alterando sus respuestas e incluso forzándolos a saltarse reglas. En este artículo te explico qué es, cómo funciona, casos reales y por qué deberías conocerla, aunque no seas programador.

Continúa leyendo «¿Qué es la inyección de prompt y por qué pone en riesgo a la inteligencia artificial?»

Vulnerabilidad en ChatGPT: ¿una amenaza persistente para los usuarios?

En un descubrimiento reciente, el investigador de seguridad Johann Rehberger ha identificado una vulnerabilidad en ChatGPT que permite a los atacantes plantar «falsas memorias» en las configuraciones de memoria a largo plazo del modelo, lo que podría comprometer la seguridad de los usuarios de manera continua. Aunque OpenAI inicialmente desestimó la vulnerabilidad, tratándola como un problema de seguridad menor, Rehberger demostró cómo este fallo podría explotarse para robar datos del usuario de forma indefinida.

Continúa leyendo «Vulnerabilidad en ChatGPT: ¿una amenaza persistente para los usuarios?»