Anthropic compra Vercept: la carrera por automatizar tareas con agentes de IA entra en fase de concentración

La compra de la startup Vercept por parte de Anthropic marca un paso más en la transición desde la IA conversacional hacia la automatización de tareas con agentes capaces de operar software real. Según informó Computerworld, Vercept —con sede en Seattle— venía trabajando en agentes en la nube que podían controlar un MacBook remoto, una idea que suena menos glamourosa que un gran modelo generativo, pero que toca un nervio sensible en las empresas: lograr que la IA no se quede en sugerencias, sino que ejecute acciones completas dentro de aplicaciones, como si fuera una mano digital sobre el teclado.

Para entenderlo con una metáfora cotidiana, muchos asistentes actuales se parecen a un copiloto que te dice por dónde ir; los agentes buscan ser el conductor que toma el volante, frena, aparca y te deja en destino. Eso cambia el tipo de valor que pueden ofrecer en entornos corporativos: menos “respuestas brillantes” y más “trabajo terminado”. Continúa leyendo «Anthropic compra Vercept: la carrera por automatizar tareas con agentes de IA entra en fase de concentración»

Perplexity Computer: así funciona el “trabajador digital” que busca domar el caos de los agentes autónomos

La idea de tener un asistente que trabaje solo en tu ordenador suena como contratar a un becario incansable: toma notas, busca información, ejecuta tareas repetitivas y te deja el trabajo listo para revisar. El problema es que, cuando ese “becario” tiene acceso a correos, archivos sensibles o claves de API, un error puede salir caro. En las últimas semanas, el debate sobre los agentes de IA que operan en segundo plano se ha calentado por una mezcla de entusiasmo y miedo: productividad por un lado, riesgo de seguridad por otro.

En ese contexto, Perplexity ha presentado Computer, descrito como un trabajador digital de propósito general capaz de “razonar, delegar, buscar, construir, recordar, programar y entregar” resultados. Según explicó la compañía en su comunicado y recogió ZDNET, el sistema está disponible primero para usuarios de Perplexity Max y se espera que llegue después a planes Enterprise y Pro. La promesa central no es solo que haga más cosas, sino que lo haga con más control y en un entorno más seguro que propuestas recientes como OpenClaw, que han generado titulares precisamente por lo fácil que es que una automatización se descontrole. Continúa leyendo «Perplexity Computer: así funciona el “trabajador digital” que busca domar el caos de los agentes autónomos»

Laravel Skills: el “directorio de hábitos” que entrena a tu agente de IA para escribir mejor en Laravel y PHP

Quien ha probado un asistente como Claude Code, Cursor, Copilot o Windsurf suele vivir la misma escena: le pides que añada una funcionalidad en Laravel y, aunque el resultado “funciona”, el estilo no encaja. Es como pedirle a alguien que cocine una tortilla sin conocer tu cocina: encontrará huevos y sartén, sí, pero quizá use utensilios que no tienes, ignore tu salero favorito o deje el orden hecho un desastre.

En proyectos reales, esa fricción se nota en detalles que suman: convenciones de carpetas, patrones de arquitectura, criterios para controlar consultas en Eloquent, decisiones en colas y jobs, o tu manera de escribir pruebas. El agente no parte de cero en conocimiento de programación, pero sí parte de cero en contexto. Y ese contexto, a menudo, se reexplica una y otra vez. Continúa leyendo «Laravel Skills: el “directorio de hábitos” que entrena a tu agente de IA para escribir mejor en Laravel y PHP»

KiloClaw, la forma “en 60 segundos” de poner un agente OpenClaw en producción sin pelearte con servidores

Poner en marcha un agente capaz de navegar por la web, manejar archivos, responder en mensajería y ejecutar tareas de forma autónoma suena atractivo hasta que llega la parte menos glamourosa: configurar dependencias, abrir puertos, ajustar permisos, desplegar contenedores y vigilar que el proceso no muera en silencio. Ese tramo entre la idea y un servicio estable suele ser el que separa un experimento de fin de semana de algo que pueda usarse en serio.

Kilo, una startup de infraestructura de IA respaldada por Sid Sijbrandij, cofundador de GitLab, ha presentado KiloClaw como una respuesta directa a esa fricción. Según la información publicada por VentureBeat, el servicio ya está disponible de forma general y promete levantar un agente OpenClaw listo para producción en menos de un minuto. La apuesta no es solo “hacerlo fácil”, sino convertir el despliegue y la operación en algo tan predecible como encender una luz: pulsas un botón, el sistema queda “vivo”, y tú no tienes que improvisar un centro de datos casero. Continúa leyendo «KiloClaw, la forma “en 60 segundos” de poner un agente OpenClaw en producción sin pelearte con servidores»

OpenAI impulsa Frontier Alliances: el plan para llevar la IA empresarial del piloto a la rutina diaria

En los últimos dos años, muchas compañías han probado herramientas de IA generativa como quien instala una app nueva para ver “qué hace”. Funciona en demostraciones, redacta correos, resume documentos y hasta ayuda a programar. El problema llega cuando se intenta convertir ese entusiasmo en una capacidad estable del negocio. OpenAI reconoce que el cuello de botella ya no es disponer de modelos potentes, sino conseguir que esa inteligencia encaje con la estrategia, con los datos reales de la empresa, con los sistemas heredados y con la forma en que trabaja la gente. En su anuncio oficial, la compañía describe ese salto como el paso de la experimentación a la producción: que la IA deje de ser un experimento aislado y se convierta en parte del flujo de trabajo. Fuente: OpenAI.

Aquí es donde muchas organizaciones se frenan. Hay silos de datos, permisos difíciles, procesos que llevan años sin tocarse y equipos que no tienen claro quién decide qué puede hacer la IA y qué no. Es parecido a comprar una cafetera profesional para la oficina: no basta con tenerla, hay que instalarla bien, decidir quién la mantiene, ajustar hábitos y, sobre todo, lograr que el café salga igual de bien cada día. Continúa leyendo «OpenAI impulsa Frontier Alliances: el plan para llevar la IA empresarial del piloto a la rutina diaria»

EVMbench: el nuevo termómetro para medir si los agentes de IA saben encontrar, arreglar y explotar fallos en smart contracts

Los contratos inteligentes son como máquinas expendedoras que viven en una blockchain: metes una condición y, si se cumple, sueltan el resultado sin pedir permiso a nadie. El problema es que, cuando esa máquina custodia valor real, un tornillo mal puesto puede convertirse en una puerta trasera. OpenAI recuerda que estos contratos llegan a proteger más de 100.000 millones de dólares en activos cripto de código abierto, una cifra que explica por qué la seguridad de smart contracts se ha vuelto un deporte de alto riesgo.

En paralelo, los agentes de IA han mejorado mucho leyendo y escribiendo código, y también ejecutándolo. Si una IA puede revisar un repositorio como lo haría un auditor, también puede comportarse como un atacante paciente que prueba combinaciones hasta dar con la que drena fondos. El punto de OpenAI y Paradigm es directo: si el “nivel” de las máquinas sube, conviene medirlo en un entorno donde los errores se pagan caros. Continúa leyendo «EVMbench: el nuevo termómetro para medir si los agentes de IA saben encontrar, arreglar y explotar fallos en smart contracts»

La “fiebre” de los agentes de IA ya está aquí y la web no tiene barandillas suficientes

Durante años, la idea dominante de la inteligencia artificial de consumo fue la del asistente conversacional: tú preguntas, el sistema responde. En 2025 y 2026 esa imagen se ha quedado corta porque han proliferado los agentes de IA, herramientas que no solo contestan, sino que ejecutan tareas encadenadas con poca intervención humana: buscar información, abrir webs, rellenar formularios, iniciar sesión, reservar, programar, mover archivos o coordinar pasos como si fueran un becario incansable con acceso a tu navegador.

Un ejemplo reciente, citado por Gizmodo (AJ Dellinger, 19 de febrero de 2026), es el caso de OpenClaw, un agente open source que “arrasó” por sus capacidades autónomas y por la inquietud que generó en seguridad. El problema es que el debate suele quedarse en anécdotas: impresiona ver a un bot navegar como una persona, pero cuesta saber cuántos hay, qué hacen realmente y con qué normas. Para poner números y contexto, el MIT a través de CSAIL publicó su AI Agent Index 2025, un inventario y análisis de agentes en operación “en la naturaleza”, con foco en transparencia y guardarraíles. Continúa leyendo «La “fiebre” de los agentes de IA ya está aquí y la web no tiene barandillas suficientes»

Microsoft alerta sobre “agentes dobles” de IA: cuando un asistente con demasiados permisos se convierte en un riesgo

Los agentes de IA han dejado de ser un experimento curioso para convertirse en piezas cada vez más habituales dentro de las empresas. A diferencia de un chatbot que responde preguntas, un agente suele tener “manos” dentro de los sistemas: puede leer correos, abrir tickets, consultar bases de datos, actualizar un CRM, generar informes o coordinar tareas entre aplicaciones. Es como pasar de una calculadora a un empleado digital que no solo sugiere, sino que ejecuta.

Ese salto de “hablar” a “hacer” explica por qué tantas organizaciones los están adoptando. Según un informe de seguridad reciente de Microsoft, las compañías están desplegando agentes a un ritmo acelerado y, en paralelo, están apareciendo nuevos huecos de seguridad que no encajan del todo en los marcos clásicos. Microsoft resume la situación con una idea potente: los equipos “humano-agente” se están extendiendo globalmente, y esa convivencia trae oportunidades, pero también nuevos fallos posibles si no se controla bien. Continúa leyendo «Microsoft alerta sobre “agentes dobles” de IA: cuando un asistente con demasiados permisos se convierte en un riesgo»

EnCompass: el “GPS” que ayuda a los agentes de IA a elegir el mejor camino entre respuestas de un LLM

Los agentes de IA se han convertido en ese compañero de oficina que no se cansa: puede revisar documentos, traducir código, preparar informes o encadenar pasos para completar una tarea de principio a fin. Muchos de estos agentes se apoyan en modelos de lenguaje grandes (LLM) porque son rápidos, flexibles y se adaptan a instrucciones variadas. El problema aparece cuando el agente llega a una parte delicada del trabajo y el LLM “patina”: una salida incorrecta, un detalle inventado, un cambio que rompe una prueba.

Si el agente estaba traduciendo una base de código archivo por archivo, un error pequeño puede comportarse como una ficha de dominó: compila mal, se rompen tests, se atasca el flujo. Lo que uno querría, de forma bastante humana, es que el sistema reconociera el tropiezo, volviera a un punto anterior y lo intentara de nuevo con lo aprendido. En la práctica, programar ese “volver atrás” suele ser un castigo: obliga a añadir lógica de control, registros, condiciones, reintentos y rutas alternativas, a veces con un volumen de cambios comparable al del propio agente. Continúa leyendo «EnCompass: el “GPS” que ayuda a los agentes de IA a elegir el mejor camino entre respuestas de un LLM»

GPT-5.3 Codex: OpenAI acelera su apuesta por la programación “con agentes” tras el movimiento de Anthropic

OpenAI ha presentado Codex como una herramienta pensada para desarrolladores, un tipo de asistente capaz de actuar como “agente” y no solo como un chat que responde. La idea de fondo es sencilla de entender si la comparamos con una cocina: no se trata de que alguien te dicte una receta, sino de tener a un ayudante que abre la nevera, pesa los ingredientes, enciende el horno y te va avisando de cada paso. Según ha contado TechCrunch, OpenAI lanzó primero Codex y, casi inmediatamente, un modelo diseñado para potenciarlo: GPT-5.3 Codex.

El mensaje es claro: para OpenAI, el valor no está únicamente en generar fragmentos de código o en revisar pull requests, sino en ampliar el rango de tareas que un agente puede hacer frente a un ordenador. La compañía sostiene que el nuevo modelo convierte a Codex en una herramienta capaz de hacer “casi cualquier cosa” que hacen profesionales y desarrolladores en un equipo, con una promesa que apunta a cambiar el flujo de trabajo diario: menos tiempo saltando entre pestañas, copiando logs, reproduciendo errores o persiguiendo dependencias, y más tiempo decidiendo qué construir y cómo. Continúa leyendo «GPT-5.3 Codex: OpenAI acelera su apuesta por la programación “con agentes” tras el movimiento de Anthropic»