Chatbots bajo presión: un estudio revela lo fácil que es engañar a la IA para obtener información peligrosa
Un equipo de investigadores de la Universidad Ben-Guríon del Néguev ha encendido las alarmas: la mayoría de los chatbots de inteligencia artificial disponibles públicamente siguen siendo vulnerables a ser «jailbreakeados». Esto significa que, con preguntas formuladas de cierta manera, pueden ofrecer información dañina, ilegal o altamente sensible, a pesar de las protecciones integradas por sus… <a href="https://wwwhatsnew.com/2025/05/27/chatbots-bajo-presion-un-estudio-revela-lo-facil-que-es-enganar-a-la-ia-para-obtener-informacion-peligrosa/">Continúa leyendo »</a>