Durante años, hablar con un modelo de lenguaje se parecía a conversar con un bibliotecario muy rápido: te respondía, te explicaba, te sugería fuentes. Un agente de IA, en cambio, se parece más a un asistente que no solo te indica dónde está el libro, sino que va, lo saca, copia lo relevante, lo ordena y te lo deja listo en la mesa. Esa diferencia —pasar de responder a actuar— es el núcleo del estudio “The Adoption and Usage of AI Agents: Early Evidence from Perplexity”, firmado por Jeremy Yang (Harvard) y un equipo de Perplexity, y publicado en arXiv en diciembre de 2025.
El artículo propone una definición operativa: sistemas capaces de perseguir objetivos definidos por el usuario mediante planificación y acciones en múltiples pasos, con cierto nivel de autonomía, en entornos reales como la web. Para explicarlo sin jerga: si pedirle a un chatbot “recomiéndame un vuelo barato” es una consulta, pedirle a un agente “encuentra el mejor vuelo con estas condiciones y resérvalo” es un encargo.
El laboratorio natural: Comet como navegador con asistente integrado
La investigación se centra en Comet, el navegador de Perplexity, y en su Comet Assistant, un agente integrado que puede interactuar con páginas web y servicios conectados para ejecutar tareas: desde organizar reuniones o modificar documentos hasta buscar productos y gestionar correos. La gracia del enfoque es que no se basa en encuestas pequeñas ni en un sector concreto: usan cientos de millones de interacciones anonimizadas de usuarios reales durante los primeros meses de vida del producto.
El periodo analizado va del 9 de julio al 22 de octubre de 2025, justo antes de una gran actualización del asistente que, según el propio equipo, cambió capacidades y podría alterar los patrones de uso. En otras palabras, el estudio fotografía el “primer Comet” en una fase temprana de adopción, con todo lo que eso implica: usuarios curiosos, perfiles más técnicos y hábitos todavía en formación.
Quién adopta antes y quién usa más: la desigualdad de la adopción en números
Una de las ideas más claras del estudio es que la adopción y la intensidad de uso no se reparten de manera uniforme. Los autores distinguen entre el margen extensivo (quién lo prueba al menos una vez) y el margen intensivo (cuánto lo utiliza). Para medir sobrerrepresentación, crean dos métricas: el Agent Adoption Ratio (AAR) y el Agent Usage Ratio (AUR), que comparan la cuota de adopción o de consultas del agente frente a la cuota de usuarios de cada segmento. Si el ratio es mayor que 1, ese grupo está “tirando” más del carro de lo que le correspondería por tamaño.
El patrón típico de tecnologías nuevas aparece con claridad: los primeros cohortes concentran más uso que los que llegan cuando el producto ya es para todos. En este caso, un usuario del primer grupo (acceso desde el 9 de julio) no solo es más propenso a adoptar, sino que genera muchas más consultas agenticas que alguien del cohort de disponibilidad general (2 de octubre). Es el equivalente digital a comprar una cafetera inteligente el primer día: no basta con encenderla, se exploran recetas, configuraciones, automatizaciones… y se usa más.
La geografía del agente: PIB per cápita, educación y acceso
El estudio también encuentra correlaciones fuertes entre uso de agentes y variables macro como PIB per cápita y años promedio de educación, apoyándose en datos del Banco Mundial y del informe de desarrollo humano del PNUD, citados por los autores. El mensaje es incómodo pero lógico: cuando una herramienta exige cierta alfabetización digital y tiempo para aprender, es más probable que despegue donde ya hay ventaja económica y educativa.
Aquí conviene una metáfora cotidiana: un robot de cocina ayuda a cocinar más rápido, pero primero hay que leer el manual, tener ingredientes y una cocina donde usarlo. Con los agentes de IA pasa algo parecido: el valor potencial es alto, pero la rampa de aprendizaje y el contexto importan.
Ocupaciones: por qué el agente encaja mejor en trabajos “de pantalla”
En el análisis por ocupación (inferida mediante taxonomías tipo O*NET), destacan los sectores digitales y de conocimiento: tecnología, academia, finanzas, marketing y emprendimiento suman una parte enorme de adopción y consultas. Tiene sentido: si tu trabajo ya vive en pestañas, documentos, CRM, hojas de cálculo y correo, delegar microtareas a un agente encaja como un guante.
En cambio, los perfiles con más interacción física tienden a aparecer menos. No porque no haya utilidad, sino porque el agente —al menos en esta versión— opera principalmente en entornos web. Es como tener un copiloto excelente… que solo conduce en autopista.
Para qué se usan los agentes: una taxonomía que organiza el caos
La aportación metodológica más interesante es su taxonomía jerárquica de uso agentico: tres niveles (tema, subtema y tarea). En vez de tratar las consultas como un saco de peticiones, las ordenan como un mapa de objetivos y acciones. Los dos grandes temas dominantes son Productividad y flujo de trabajo y Aprendizaje e investigación, que juntos suman el 57% de las consultas agenticas. Después vienen Medios y entretenimiento y Compras y comercio, con cuotas relevantes.
A nivel de subtemas, hay dos que destacan mucho: Cursos y compras de bienes, que juntos representan el 22% del total. Y en el nivel más fino, la concentración es aún mayor: las 10 tareas más frecuentes (de un total de 90) agrupan el 55% de las consultas. Esto sugiere que, aunque el agente sea “generalista”, la gente empieza por un conjunto pequeño de usos muy pragmáticos, como cuando estrenas una navaja multiusos y lo primero que haces es abrir cajas y cortar cuerda, no tallar madera.
El detalle que cambia el diseño: “pegajosidad” y evolución hacia tareas más cognitivas
Los autores observan un fenómeno de stickiness: en el corto plazo, los usuarios tienden a repetir el mismo tipo de uso (mismo tema) en consultas consecutivas. Productividad, aprendizaje y carrera son especialmente “pegajosos”; viajes es menos estable. Esto importa para diseño de producto: si alguien entra por “cursos”, probablemente seguirá ahí un rato, y conviene ofrecer atajos, plantillas y sugerencias dentro de ese carril.
Con el tiempo, sin embargo, el mix cambia: baja el peso de viajes y entretenimiento y sube el de productividad, aprendizaje y carrera, lo que el estudio interpreta como un desplazamiento hacia usos más “cognitivos”. Traducido: al principio el agente se usa para cosas visibles y fáciles de comprobar; cuando crece la confianza, se delegan tareas más densas, como analizar información, sintetizar, redactar o estructurar decisiones.
Dónde actúan los agentes: el poder de los entornos dominantes
Un agente no vive en el vacío: necesita “manos”, es decir, integraciones y capacidad de interactuar con sitios. El estudio muestra que unos pocos entornos concentran gran parte del uso: servicios de correo, documentos en la nube, plataformas como LinkedIn o YouTube y comercios como Amazon. Pero la concentración varía mucho por subtema: música o vídeo están dominados por muy pocos sitios, mientras que gestión de cuentas o gestión de proyectos se reparte entre muchos entornos.
Esto tiene implicaciones para empresas “anfitrionas”: si tu web es un entorno frecuente para agentes, tu interfaz ya no solo debe ser usable para humanos, también para automatizaciones y flujos agenticos. La experiencia puede pasar de “haz clic aquí” a “dile al agente qué quieres y deja que navegue por ti”.
Privacidad y limitaciones: lo que el estudio dice y lo que no puede decir
Perplexity subraya salvaguardas: exclusión de ciertos usuarios (por ejemplo, entornos gubernamentales), uso de datos anonimizados, resultados agregados y clasificación automatizada. Aun así, los autores reconocen ruido en los clasificadores: puede haber falsos positivos (se activa el agente cuando no tocaba) y falsos negativos (intención agentica que no dispara el agente). También recuerdan que la ventana temporal es corta y que Comet era un producto nuevo, sesgado hacia early adopters, algo reforzado por una encuesta interna de noviembre de 2025.
El mérito, aun con esas limitaciones, es poner datos de comportamiento donde antes había suposiciones. Para investigadores, abre una vía de estudio comparable a las investigaciones sobre uso de chatbots (como trabajos previos sobre Claude o ChatGPT que el propio paper cita). Para empresas y responsables de políticas públicas, plantea una cuestión de fondo: si los agentes de IA amplifican productividad y aprendizaje, su adopción desigual podría ampliar brechas existentes.
