En la calle d’Hèrcules, número 3, en el corazón del barrio Gòtic, unas obras que parecían rutinarias han abierto una puerta directa a los primeros años de la ciudad. Durante la ampliación del Gran Hotel Barcino, los equipos técnicos y arqueológicos localizaron, bajo el edificio histórico conocido como Casa Requesens, un pavimento monumental de época… Continúa leyendo »
Cuando los chatbots “interpretan” identidades: el problema de los estereotipos sobreactuados
Cada vez más aplicaciones incorporan chatbots que no solo responden preguntas, sino que simulan ser alguien: una persona joven o mayor, de un país concreto, con un oficio específico, con un origen étnico determinado o en una situación familiar particular. La promesa es intuitiva: si el asistente “se parece” a ti, quizá te resulte más cómodo pedirle ayuda, contarle algo personal o aprender con él. Es parecido a elegir un profesor particular; solemos sentirnos más seguros cuando percibimos cercanía.
El problema aparece cuando esa cercanía es un disfraz hecho de tópicos. Un equipo de investigadores de la Universidad Estatal de Pensilvania, en su College of Information Sciences and Technology, sostiene que muchos sistemas actuales no están representando bien a personas de determinados grupos sociodemográficos. No es que fallen por falta de fluidez: al contrario, suelen sonar convincentes. La crítica es más incómoda: los modelos tienden a apoyarse en estereotipos superficiales y a enfatizar “marcadores culturales” de forma exagerada, como si la identidad fuera un paquete de etiquetas que hay que mencionar para “sonar auténtico”. La investigación se presentó en AAAI 2026 (en una pista dedicada a alineamiento de IA) y el artículo está disponible como preprint en arXiv, con autoría liderada por Shomir Wilson y Sarah Rajtmajer, entre otros. Continúa leyendo «Cuando los chatbots “interpretan” identidades: el problema de los estereotipos sobreactuados»