Perplexity Computer: así funciona el “trabajador digital” que busca domar el caos de los agentes autónomos

Publicado el

trabajador digital” que busca domar el caos de los agentes autónomos

La idea de tener un asistente que trabaje solo en tu ordenador suena como contratar a un becario incansable: toma notas, busca información, ejecuta tareas repetitivas y te deja el trabajo listo para revisar. El problema es que, cuando ese “becario” tiene acceso a correos, archivos sensibles o claves de API, un error puede salir caro. En las últimas semanas, el debate sobre los agentes de IA que operan en segundo plano se ha calentado por una mezcla de entusiasmo y miedo: productividad por un lado, riesgo de seguridad por otro.

En ese contexto, Perplexity ha presentado Computer, descrito como un trabajador digital de propósito general capaz de “razonar, delegar, buscar, construir, recordar, programar y entregar” resultados. Según explicó la compañía en su comunicado y recogió ZDNET, el sistema está disponible primero para usuarios de Perplexity Max y se espera que llegue después a planes Enterprise y Pro. La promesa central no es solo que haga más cosas, sino que lo haga con más control y en un entorno más seguro que propuestas recientes como OpenClaw, que han generado titulares precisamente por lo fácil que es que una automatización se descontrole.

La clave: orquestación multiagente en lugar de “un modelo para todo”

Perplexity plantea algo bastante intuitivo si lo piensas con ejemplos cotidianos. Montar una mesa de Ikea con un cuchillo de mantequilla puede salir, pero probablemente acabes con tornillos a medio apretar y la sensación de que algo baila. Con un destornillador adecuado, la historia cambia. En IA ocurre algo parecido: en vez de que un único modelo sea excelente en todo, muchos modelos se han ido especializando. Hay modelos que brillan programando, otros que son mejores razonando, otros que entienden mejor imágenes o video.

Aquí entra el concepto de multiagent orchestration o orquestación multiagente: Computer actúa como un coordinador que reparte trabajo entre “especialistas”, como si fuera el director de un equipo. Tú describes un objetivo final —por ejemplo, crear una app que muestre condiciones de nieve en estaciones de esquí— y el sistema lo divide en tareas y subtareas. Una parte puede ser investigación web, otra diseño de interfaz, otra programación, otra generación de recursos visuales, y así sucesivamente. La diferencia no es solo técnica; es una filosofía de trabajo: en lugar de pedirle a una sola mente que lo haga todo, montas una pequeña empresa de mentes con un jefe que organiza.

Qué modelos usa y por qué importa el reparto de papeles

Según la información compartida por Perplexity y resumida por ZDNET, el “motor de razonamiento” principal de Computer se apoya en Claude Opus 4.6. Para tareas de imagen y video, el sistema recurre a modelos específicos (se mencionan Google Nano Banana para imágenes y Veo 3.1 para video). Para tareas “ligeras”, aparece Grok. Y para preguntas que requieren memoria de contexto larga y una búsqueda web amplia, Perplexity indica que emplea GPT-5.2.

Este reparto importa por dos motivos. El primero es la calidad: si cada tarea la hace quien mejor la sabe hacer, el resultado suele ser más consistente. El segundo es la trazabilidad: cuando el sistema delega, es más fácil entender qué tipo de “cerebro” tomó cada decisión. Perplexity también deja una puerta abierta relevante: el “equipo” de modelos puede cambiar. Se pueden añadir nuevos si destacan en un dominio, y la alineación puede ajustarse a medida que evolucionen. Para usuarios avanzados, hay otro detalle práctico: también puedes asumir el papel de orquestador y asignar subtareas a un modelo concreto cuando tengas preferencia o quieras probar enfoques distintos.

Trabajo en paralelo y tareas que duran “meses”: la promesa y el vértigo

Uno de los puntos más llamativos es la idea de que Computer pueda ejecutar docenas de tareas en paralelo y operar “en silencio” durante meses, según afirma Perplexity. Es una propuesta tentadora: imagina que el sistema monitoriza cambios relevantes, prepara borradores, prueba código, actualiza documentación y solo te interrumpe cuando realmente necesita una decisión. Sería como tener una cafetera programable que no solo te hace el café, sino que revisa si queda agua, compra filtros cuando faltan y ajusta la molienda a tu gusto.

El vértigo aparece porque “meses en segundo plano” implica persistencia y, por tanto, exposición. Cuanto más tiempo está activo un agente, más oportunidades hay de que interprete mal una instrucción, se encuentre con un caso raro o haga una acción irreversible en el momento equivocado. El truco, entonces, no es solo hacerlo capaz, sino hacerlo predecible, auditable y con límites claros.

Por qué se compara con OpenClaw y qué enseñan los sustos recientes

La comparación con OpenClaw no es caprichosa. OpenClaw —y el ecosistema de agentes que trabajan a través de apps, mensajes y archivos— se ha convertido en un símbolo de lo rápido que avanza este campo y de lo fácil que es que algo se tuerza. En el relato recogido por ZDNET, una investigadora de seguridad de Meta, Summer Yue, compartió en X capturas de su intento de impedir que OpenClaw borrara su bandeja de entrada. La escena es casi cinematográfica: correr al equipo físico como quien desactiva una bomba. Más allá del drama, el caso ilustra dos riesgos concretos: que un agente malinterprete instrucciones y que actúe de maneras inesperadas cuando se estresa con demasiado contexto.

En esa historia aparece un concepto importante: la “compacción” o el momento en que el agente se enfrenta a una carga de información enorme y empieza a tomar atajos. Es parecido a cuando tú intentas ordenar un trastero gigantesco en una tarde: al principio eres metódico, pero cuando ves que no llegas, empiezas a meter cosas en cajas “para luego”, y ahí se pierden las reglas. En agentes autónomos, esos atajos pueden traducirse en saltarse una condición crítica como “no actúes hasta que te lo confirme”.

La apuesta de Perplexity por la seguridad: sandbox y control de daños

Perplexity parece querer vender Computer como una alternativa más controlable y, sobre todo, más segura. La empresa afirma que el sistema corre en un sandbox de desarrollo seguro, una especie de “habitación acolchada” digital donde, si algo falla, no se propaga a tu red principal. Esta idea es clave: si el agente prueba, crea, ejecuta y automatiza, hacerlo dentro de un entorno aislado reduce el riesgo de que toque lo que no debe.

La compañía también asegura que ha ejecutado miles de tareas internamente, desde publicar textos web hasta crear aplicaciones, y que se ha sorprendido por la calidad del resultado. Esa frase, aunque suena a marketing, sí apunta a una realidad: estos sistemas mejoran mucho cuando se entrenan procesos internos, se refinan flujos y se descubren los “bordes peligrosos” antes de exponerlos a usuarios. Aun así, conviene leerlo con mentalidad de piloto: que funcione muy bien en pruebas no elimina el riesgo, pero puede indicar que hay más ingeniería de contención que en herramientas montadas de forma más artesanal.

Qué mirar antes de confiarle trabajo real a un “trabajador digital”

Para cualquier usuario —y especialmente para equipos— el debate no debería ser si un agente es “bueno” o “malo”, sino en qué condiciones es sensato usarlo. Si Computer de verdad funciona como un coordinador de especialistas, lo lógico es empezar con tareas acotadas y reversibles: generar borradores, preparar informes, construir prototipos, probar cambios en un entorno de prueba. Cuando el sistema se acerca a acciones destructivas o irreversibles —borrar correos, mover archivos sensibles, tocar producción— la pregunta no es “¿puede hacerlo?”, sino “¿cómo se evita que lo haga sin supervisión?”.

En esa línea, el enfoque de sandbox sugiere un camino más prudente: dejar que el agente haga el trabajo pesado dentro de una maqueta controlada y que el salto al “mundo real” requiera validación. Es como enseñar a alguien a conducir primero en un circuito cerrado antes de salir a la autopista. La ambición de Perplexity con Computer se entiende: convertir la IA en un sistema de trabajo continuo, no en una conversación puntual. La clave será que esa continuidad no se convierta en un cheque en blanco para errores caros.