Cómo Stanford y Google están creando clones de personalidad con IA tras entrevistas de dos horas

Publicado el

Representación minimalista y surrealista de inteligencia artificial creando clones digitales humanos a partir de datos

La inteligencia artificial sigue rompiendo barreras, y la última colaboración entre Stanford y Google lleva la tecnología a un terreno fascinante y también preocupante. En un estudio reciente titulado «Simulaciones de agentes generativos de 1,000 personas», los investigadores lograron crear agentes de IA que replican el comportamiento humano con un 85% de precisión, todo a partir de entrevistas de tan solo dos horas. Este avance plantea preguntas intrigantes sobre las aplicaciones de esta tecnología, pero también despierta inquietudes éticas.

¿Cómo funciona el proceso?

El estudio comenzó con la participación de 1,052 personas que recibieron $60 por prestar su voz y compartir sus historias. Los participantes leyeron las dos primeras líneas de El gran Gatsby para calibrar el audio y luego interactuaron con un entrevistador virtual, representado como un avatar en 2D similar a los personajes de videojuegos retro.

El entrevistador, diseñado a partir de una versión adaptada del «American Voices Project» de Stanford y Princeton, guió a los participantes a través de un cuestionario que exploraba aspectos como raza, género, ingresos, uso de redes sociales, política y dinámica familiar. Estas entrevistas generaron transcripciones de aproximadamente 6,500 palabras por persona.

Posteriormente, las respuestas se introdujeron en un modelo de lenguaje generativo (LLM) que construyó agentes virtuales capaces de replicar las personalidades de los participantes. En palabras sencillas, la IA aprende a «actuar» como la persona entrevistada basándose en sus palabras, decisiones y respuestas.

¿Qué tan precisos son estos clones digitales?

Para medir la eficacia de estos agentes generativos, los investigadores los sometieron a diversas pruebas, incluyendo cuestionarios estandarizados como el «General Social Survey» (GSS) y el «Big Five Personality Inventory» (BFI), así como juegos económicos como el «Dilema del prisionero» y el «Juego del dictador».

Los resultados fueron mixtos. En los cuestionarios, los agentes replicaron el comportamiento de los participantes reales con una precisión del 85% en el GSS y del 80% en el BFI. Sin embargo, en los juegos económicos, donde las decisiones involucran variables complejas como la moralidad y la estrategia, la precisión bajó al 60%.

Aunque esta cifra puede parecer modesta, desde WWWhatsnew creemos que es un avance significativo, considerando la complejidad de modelar algo tan intrínseco y dinámico como la personalidad humana.

¿Para qué podría usarse esta tecnología?

Los investigadores plantean aplicaciones prometedoras. Por ejemplo, estos agentes podrían servir como herramientas para entender cómo respondería un grupo diverso de personas a políticas públicas, lanzamientos de productos o crisis globales. En lugar de realizar encuestas o grupos focales, las empresas y los gobiernos podrían consultar a estos clones digitales para simular reacciones colectivas.

En un nivel más académico, la simulación de individuos y comunidades podría ayudar a desarrollar teorías sociales, económicas y políticas más complejas y matizadas. Por ejemplo, podríamos analizar cómo reaccionarían distintas poblaciones a escenarios de pandemias, cambios climáticos o innovaciones tecnológicas.

Sin embargo, este potencial también trae consigo riesgos significativos.

¿Y los riesgos?

La capacidad de crear clones digitales plantea serias preocupaciones éticas. ¿Qué sucedería si esta tecnología se utiliza para manipular a las personas o para crear «falsos consensos» en decisiones políticas o comerciales? En WWWhatsnew, nos preocupa cómo esta tecnología podría ser explotada por actores malintencionados.

Ya hemos visto cómo modelos de lenguaje menos avanzados han sido utilizados para realizar estafas telefónicas, como hacerse pasar por familiares para obtener información bancaria. Imaginen lo que podría lograrse con clones digitales que imiten con precisión la personalidad de alguien.

Otro punto crítico es la privacidad. Si bien este estudio utilizó datos consentidos y protegidos, la posibilidad de que empresas o gobiernos utilicen datos públicos para crear agentes sin permiso es alarmante. Redes sociales, grabaciones públicas e incluso entrevistas periodísticas podrían convertirse en la base de futuros clones digitales.

Un futuro con clones digitales: ¿distopía o utopía?

Desde WWWhatsnew, creemos que el futuro de esta tecnología dependerá en gran medida de la regulación y el uso responsable. Por un lado, podría convertirse en una herramienta poderosa para comprender y atender mejor las necesidades humanas. Por otro, sin las salvaguardas adecuadas, podría ser un arma peligrosa para manipular a las personas y perpetuar desigualdades.

Las empresas tecnológicas tienen una gran responsabilidad en este aspecto. Es crucial establecer códigos éticos que regulen el desarrollo y uso de agentes generativos. Además, los usuarios también debemos ser conscientes de los riesgos y exigir transparencia en cómo se utilizan nuestros datos.

La colaboración entre Stanford y Google ha abierto una puerta a posibilidades fascinantes, pero también nos recuerda que con gran poder viene una gran responsabilidad. La capacidad de replicar personalidades humanas en IA es un avance técnico impresionante, pero también un recordatorio de la importancia de abordar la tecnología con cuidado y ética.