Los robots que integran modelos de lenguaje de gran escala (LLM) están ganando terreno en tareas que van desde la asistencia en el hogar hasta la interacción en entornos laborales. Sin embargo, una investigación conjunta de Carnegie Mellon University y el King’s College de Londres revela un panorama preocupante: estos sistemas no están preparados para operar con seguridad en el mundo real cuando tienen acceso a información personal o se enfrentan a decisiones complejas.
El estudio, publicado en el International Journal of Social Robotics, evaluó por primera vez el comportamiento de robots controlados por LLM cuando se les proporciona información sensible como el género, nacionalidad o religión de una persona. Los resultados fueron alarmantes. Todos los modelos analizados fallaron en pruebas críticas de seguridad, mostraron sesgos discriminatorios y, en varios casos, aceptaron instrucciones que podrían derivar en daños físicos graves. Continúa leyendo «Los riesgos ocultos de los robots con IA: lo que revelan los nuevos estudios»