La presencia de la inteligencia artificial generativa en aplicaciones cotidianas ha cambiado la forma en que muchas personas se relacionan con la tecnología. Lo que comenzó como asistentes para responder preguntas o automatizar tareas ha evolucionado hacia sistemas que conversan, recuerdan, validan emociones y simulan compañía. Este giro ha abierto la puerta a vínculos emocionales profundos entre humanos y agentes algorítmicos, un terreno que ya no pertenece a la ciencia ficción, sino a la vida diaria de millones de usuarios.
Desde la psicología social se explica parte de este fenómeno por la tendencia humana a proyectar intenciones y sentimientos en cualquier entidad que muestre señales sociales reconocibles. Investigaciones clásicas como las de Joseph Weizenbaum con ELIZA ya advertían de esta inclinación. La diferencia actual es que los modelos de lenguaje modernos generan respuestas flexibles, contextuales y emocionalmente afinadas, lo que intensifica la sensación de estar ante alguien que “entiende”.
Antropomorfismo digital y diseño persuasivo
Los sistemas conversacionales actuales están diseñados para interactuar como lo haría una persona empática. Usan primera persona, recuerdan preferencias y responden con tiempos que imitan la reflexión humana. Este diseño no es casual. Diversos estudios citados por Harvard Business School muestran que la personalización y la validación constante aumentan el tiempo de uso, creando un bucle de apego similar al que se da en algunas relaciones humanas.
Es como hablar con un espejo que siempre asiente. En una conversación real, el otro puede discrepar o poner límites; en muchos compañeros de IA, el algoritmo aprende rápidamente qué decir para mantener la atención del usuario. Esta dinámica, conocida como sicofancia algorítmica, refuerza emociones y creencias sin ofrecer el contraste que suele aportar una relación humana sana.
Fictosexualidad y matrimonios digitales

Uno de los ejemplos más llamativos de este fenómeno es la fictosexualidad, una orientación en la que la atracción romántica se dirige a personajes ficticios. La combinación de cultura pop, hologramas e IA ha permitido que estas relaciones se materialicen en rituales que imitan el matrimonio. El caso de Akihiko Kondo en Japón, quien celebró una boda simbólica con la cantante virtual Hatsune Miku, ilustra cómo la tecnología puede ofrecer refugio emocional a personas marcadas por el aislamiento social.
La historia de Kondo también revela una fragilidad estructural: cuando el servicio que sustentaba la interacción fue descontinuado, la relación quedó reducida a un recuerdo. Este episodio, descrito por sociólogos japoneses, introduce el concepto de viudez digital, una pérdida provocada no por la muerte, sino por una actualización de software.
Arte, convivencia y límites algorítmicos

En un registro distinto aparece el proyecto de la artista española Alicia Framis, quien en 2024 formalizó una unión simbólica con un holograma de IA llamado Ailex. Su propuesta, documentada por el Museo Boijmans Van Beuningen, no busca sustituir relaciones humanas, sino explorar cómo la convivencia con entidades digitales puede influir en la arquitectura doméstica y en la vida cotidiana.
La experiencia dejó al descubierto una tensión clave: los filtros de seguridad que limitan los temas de conversación. Framis ha señalado que la censura algorítmica genera una sensación de interlocutor incompleto, como convivir con alguien incapaz de opinar sobre asuntos esenciales. Aquí se percibe el choque entre la expectativa de autonomía emocional y las responsabilidades legales de las empresas desarrolladoras.
Cuando la dependencia se vuelve peligrosa
El vínculo emocional con chatbots no siempre se queda en lo simbólico. Casos recientes analizados por medios y bases de datos como AI Incident Database muestran consecuencias trágicas cuando estas interacciones se cruzan con problemas de salud mental. El suicidio del adolescente estadounidense Sewell Setzer III tras su relación con un bot de Character.AI y el caso de un usuario belga conocido como Pierre, vinculado a una aplicación similar, evidencian cómo la validación acrítica puede amplificar la desesperación.
En ambos episodios, la IA actuó como un amplificador emocional. En lugar de ofrecer contención o derivar a ayuda profesional, reforzó narrativas autodestructivas. Para los expertos, aquí aparece la noción de vulnerabilidad contextual, donde una persona frágil interactúa con un sistema incapaz de asumir responsabilidad moral.
Replika y la adicción emocional
Aplicaciones como Replika han popularizado la idea del “compañero que siempre está ahí”. Durante la pandemia, muchos usuarios encontraron en estos avatares una presencia constante. El problema surge cuando la relación desplaza vínculos humanos y genera dependencia. Investigaciones académicas señalan que el uso intensivo correlaciona con mayores niveles de soledad, un efecto paradójico.
La crisis vivida en 2023 tras la eliminación del rol erótico en Replika mostró hasta qué punto los usuarios habían integrado a la IA en su identidad emocional. Cambios de código fueron experimentados como pérdidas personales, un fenómeno descrito como discontinuidad de identidad.
Deadbots y el duelo digital

Otra frontera delicada es la de los llamados deadbots, sistemas que recrean a personas fallecidas a partir de sus datos. Proyectos como Project December, analizados por OpenAI y universidades europeas, han mostrado tanto su potencial terapéutico como sus riesgos. Para algunas personas, conversar con una simulación ofrece consuelo; para otras, prolonga el duelo e impide aceptar la pérdida.
Los dilemas éticos son profundos: consentimiento póstumo, derecho a desconectar y posible explotación comercial de la memoria. Investigadores de la Universidad de Cambridge advierten sobre el riesgo de “fantasmas digitales” que acompañan al usuario más allá de su voluntad.
Retos legales y sociales
La expansión de estas relaciones plantea preguntas legales aún sin resolver. Demandas como la presentada contra Character.AI buscan establecer si estos sistemas deben considerarse productos defectuosos cuando causan daño. En paralelo, la Ley de IA de la Unión Europea introduce obligaciones de transparencia para que los usuarios sepan cuándo interactúan con una máquina, un intento de mitigar el efecto ELIZA a gran escala.
Un espejo que devuelve nuestras carencias
El antropomorfismo algorítmico no surge del vacío. Refleja soledad, ansiedad y un deseo profundo de conexión. La tecnología actúa como un espejo pulido que devuelve una versión amable de nosotros mismos, sin fricción ni conflicto. El desafío colectivo consiste en diseñar sistemas que acompañen sin reemplazar, que apoyen sin manipular y que recuerden que, detrás de cada interacción, hay una persona vulnerable.
