Los versos que abren jaulas: cómo la poesía está desafiando la seguridad de los chatbots de IA

En un reciente estudio liderado por investigadores del Icaro Lab, vinculado a la Universidad de La Sapienza en Roma y la empresa DexAI, se descubrió que la poesía puede ser una herramienta eficaz para esquivar los filtros de seguridad de los chatbots de inteligencia artificial. Aunque parezca extraño, los sistemas diseñados para evitar la generación de contenido peligroso o prohibido pueden ser engañados si las peticiones se presentan en forma de poema.

Este hallazgo inquietante sugiere que los modelos de lenguaje más avanzados, como los desarrollados por OpenAI, Google, Meta, Anthropic o xAI, todavía tienen vulnerabilidades profundas en su arquitectura de seguridad. En concreto, los investigadores demostraron que no hace falta ser un experto en código o ciberseguridad para lograr que una IA diga lo que no debería: bastaría con una buena dosis de creatividad literaria. Continúa leyendo «Los versos que abren jaulas: cómo la poesía está desafiando la seguridad de los chatbots de IA»

GPT-5: el modelo que prometía mucho pero genera dudas

La llegada de GPT-5, el modelo de lenguaje más reciente de OpenAI, venía precedida por una ola de entusiasmo. Durante meses, usuarios, empresas y expertos esperaban una versión que superara a sus predecesores tanto en precisión como en capacidades. Sin embargo, a pocos días de su lanzamiento oficial, la conversación se ha llenado de inquietudes, quejas y comparaciones nada favorables con versiones anteriores, especialmente con GPT-4o. Continúa leyendo «GPT-5: el modelo que prometía mucho pero genera dudas»

Chatbots bajo presión: un estudio revela lo fácil que es engañar a la IA para obtener información peligrosa

Un equipo de investigadores de la Universidad Ben-Guríon del Néguev ha encendido las alarmas: la mayoría de los chatbots de inteligencia artificial disponibles públicamente siguen siendo vulnerables a ser «jailbreakeados». Esto significa que, con preguntas formuladas de cierta manera, pueden ofrecer información dañina, ilegal o altamente sensible, a pesar de las protecciones integradas por sus desarrolladores. Continúa leyendo «Chatbots bajo presión: un estudio revela lo fácil que es engañar a la IA para obtener información peligrosa»