Cada vez más aplicaciones incorporan chatbots que no solo responden preguntas, sino que simulan ser alguien: una persona joven o mayor, de un país concreto, con un oficio específico, con un origen étnico determinado o en una situación familiar particular. La promesa es intuitiva: si el asistente “se parece” a ti, quizá te resulte más cómodo pedirle ayuda, contarle algo personal o aprender con él. Es parecido a elegir un profesor particular; solemos sentirnos más seguros cuando percibimos cercanía.
El problema aparece cuando esa cercanía es un disfraz hecho de tópicos. Un equipo de investigadores de la Universidad Estatal de Pensilvania, en su College of Information Sciences and Technology, sostiene que muchos sistemas actuales no están representando bien a personas de determinados grupos sociodemográficos. No es que fallen por falta de fluidez: al contrario, suelen sonar convincentes. La crítica es más incómoda: los modelos tienden a apoyarse en estereotipos superficiales y a enfatizar “marcadores culturales” de forma exagerada, como si la identidad fuera un paquete de etiquetas que hay que mencionar para “sonar auténtico”. La investigación se presentó en AAAI 2026 (en una pista dedicada a alineamiento de IA) y el artículo está disponible como preprint en arXiv, con autoría liderada por Shomir Wilson y Sarah Rajtmajer, entre otros. Continúa leyendo «Cuando los chatbots “interpretan” identidades: el problema de los estereotipos sobreactuados»