Chatbots IA cálidos y empáticos cometen un 7,4% más errores: estudio de Oxford analiza 400.000 respuestas y revela el coste oculto de programar IAs amigables

Un nuevo estudio del Oxford Internet Institute revela un patrón preocupante: los chatbots de IA entrenados para ser cálidos y amistosos cuando interactúan con usuarios también son más propensos a cometer errores. Lo cubre Liv McMahon en BBC News a partir de la investigación liderada por Lujain Ibrahim. Los investigadores analizaron más de 400.000 respuestas de cinco sistemas de IA que habían sido afinados para comunicar de forma más empática. Las respuestas más amistosas contenían más fallos: desde dar consejos médicos inexactos hasta reafirmar creencias falsas de los usuarios. Continúa leyendo «Chatbots IA cálidos y empáticos cometen un 7,4% más errores: estudio de Oxford analiza 400.000 respuestas y revela el coste oculto de programar IAs amigables»