Anthropic cierra el paso a los “harnesses” de Claude Code y reordena el tablero de los asistentes de programación

Anthropic ha confirmado nuevos controles técnicos para impedir que aplicaciones de terceros se hagan pasar por su cliente oficial Claude Code y, con ello, accedan a los modelos de Claude bajo condiciones pensadas para un uso humano y no para automatización intensiva. La medida ha afectado especialmente a flujos de trabajo apoyados en herramientas abiertas como OpenCode, que se conectaban a cuentas de usuario mediante OAuth y “camuflaban” su identidad ante los servidores de Anthropic para operar como si fueran el CLI oficial.

La explicación pública llegó de la mano de Thariq Shihipar, miembro del equipo técnico de Anthropic, en X. Reconoció que el despliegue provocó daños colaterales, como suspensiones automáticas de cuentas por filtros antiabuso, algo que la compañía dijo estar revirtiendo. La interrupción de las integraciones no oficiales, en cambio, parece deliberada.

Este tipo de movimiento suele pasar desapercibido hasta que golpea la rutina diaria: la pestaña del IDE deja de responder, el agente se queda sin “combustible” y el equipo descubre que una pieza clave de su cadena de desarrollo dependía de una puerta lateral. Continúa leyendo «Anthropic cierra el paso a los “harnesses” de Claude Code y reordena el tablero de los asistentes de programación»

Anthropic apunta a una nueva ronda de 10.000 millones: qué hay detrás de la valoración de 350.000 millones

La conversación alrededor de Anthropic vuelve a subir de volumen. Según informó The Wall Street Journal y recogió TechCrunch, la compañía detrás de Claude estaría preparando una nueva financiación de unos 10.000 millones de dólares con una valoración cercana a los 350.000 millones. TechCrunch señala que pudo confirmar tanto el tamaño de la ronda como la cifra de valoración a través de una fuente familiarizada con la operación. La empresa, por su parte, declinó hacer comentarios.

Cuando se habla de estas magnitudes es fácil perder la perspectiva. Una forma útil de aterrizarlo: si el mercado de capital riesgo fuese una subasta, esto no sería levantar la mano para pujar un poco más; sería entrar con un megáfono y reservar la primera fila. No significa automáticamente que el negocio “valga” eso en términos tradicionales, pero sí que hay inversores dispuestos a poner dinero a ese precio bajo ciertas expectativas de crecimiento. Continúa leyendo «Anthropic apunta a una nueva ronda de 10.000 millones: qué hay detrás de la valoración de 350.000 millones»

Cómo Boris Cherny usa cinco agentes a la vez y convierte el trabajo de programar en una partida de estrategia

Durante años, la imagen típica del desarrollo era bastante lineal: escribir una función, probarla, corregirla y pasar a lo siguiente. Lo interesante del flujo de trabajo que ha compartido Boris Cherny, responsable de Claude Code en Anthropic, es que cambia el papel del programador. En lugar de “teclear más rápido”, el objetivo pasa a “coordinar mejor”. No es tanto ser el que mueve cada pieza como ser el entrenador que decide la jugada y distribuye tareas. Esta idea ha prendido especialmente en la comunidad de ingeniería porque no depende de una interfaz futurista: se apoya en hábitos y herramientas bastante reconocibles para cualquiera que viva en una terminal. Continúa leyendo «Cómo Boris Cherny usa cinco agentes a la vez y convierte el trabajo de programar en una partida de estrategia»

El experimento fallido que demuestra los límites actuales de la inteligencia artificial

En un intento por poner a prueba los verdaderos alcances de la inteligencia artificial en tareas económicas reales, The Wall Street Journal colaboró con Anthropic para lanzar un peculiar experimento: dejar que su modelo más avanzado, Claude, administrara una máquina expendedora dentro de una oficina. Lo que comenzó como un ejercicio controlado pronto se convirtió en una comedia de errores que reveló tanto la creatividad como los vacíos de criterio de estos sistemas.

Bajo el nombre de «Project Vend», el experimento asignó dos agentes de IA: Claudius Sennet, encargado directo de la máquina, y Seymour Cash, como director ejecutivo simbólico. Con un fondo inicial de 1.000 dólares y la tarea de gestionar pedidos, precios e inventario, Claudius debía operar como un pequeño empresario digital, con el objetivo de obtener beneficios vendiendo productos solicitados por los empleados a través de Slack. Continúa leyendo «El experimento fallido que demuestra los límites actuales de la inteligencia artificial»

OpenAI y Anthropic duplican los límites de uso de Codex y Claude durante las fiestas

El final de 2025 llega con un inesperado regalo para quienes trabajan intensamente con herramientas de inteligencia artificial. OpenAI y Anthropic, dos de los nombres más influyentes del sector, han anunciado que duplicarán temporalmente los límites de uso de sus agentes de programación asistida por IA, Codex y Claude, respectivamente. Esta medida aplica a usuarios seleccionados y estará vigente hasta el 1 de enero de 2026.

Este tipo de promociones no solo alegran a los usuarios durante una temporada de alta demanda tecnológica, sino que también reflejan cómo estas empresas están adaptando sus servicios para responder a las necesidades de una comunidad cada vez más exigente y profesionalizada. Continúa leyendo «OpenAI y Anthropic duplican los límites de uso de Codex y Claude durante las fiestas»

Bloom: la herramienta de Anthropic para evaluar el comportamiento de modelos de IA

El desarrollo de modelos de inteligencia artificial se ha disparado en los últimos años, pero una de las grandes incógnitas sigue siendo cómo evaluar de forma precisa y sistemática su comportamiento. Con este objetivo en mente, Anthropic ha presentado Bloom, una herramienta de código abierto que permite analizar cómo se comporta un modelo de IA ante distintos escenarios, tanto en condiciones normales como bajo presión.

Bloom no es un modelo de lenguaje, sino un sistema de evaluación diseñado para automatizar una tarea que hasta ahora era lenta y artesanal: someter a los modelos a diferentes situaciones para detectar posibles sesgos, comportamientos peligrosos o respuestas inadecuadas. Continúa leyendo «Bloom: la herramienta de Anthropic para evaluar el comportamiento de modelos de IA»

Claude ya puede controlar el navegador Chrome: así funciona el plugin de Anthropic

Anthropic ha dado un paso clave para facilitar la interacción entre su inteligencia artificial, Claude, y el navegador Google Chrome. Este nuevo plugin, que antes estaba limitado a quienes pagaban el plan Max de 200 dólares mensuales, ahora está disponible para todos los usuarios con suscripción de pago.

La principal función de esta herramienta es que permite a Claude navegar y actuar dentro de sitios web como si fuera el propio usuario. Puede completar formularios, gestionar calendarios y correos electrónicos, o incluso ejecutar flujos de trabajo complejos con una sola instrucción. Esto representa un cambio importante: ya no se trata solo de recibir respuestas, sino de delegar tareas digitales completas. Continúa leyendo «Claude ya puede controlar el navegador Chrome: así funciona el plugin de Anthropic»

Claude Code en Slack: el asistente que programa desde el chat

Una nueva herramienta de Anthropic cambia la forma de trabajar con errores de código. Se trata de una versión beta de Claude Code integrada directamente en Slack, la plataforma de mensajería empresarial. Con esta funcionalidad, corregir errores o implementar cambios en un proyecto podría comenzar con un simple mensaje etiquetando a Claude, el agente de IA de Anthropic. Continúa leyendo «Claude Code en Slack: el asistente que programa desde el chat»

Claude y su «alma»: el documento filtrado que revela la visión ética de Anthropic sobre la IA

El reciente hallazgo de un documento conocido internamente como el «soul doc» ha sacado a la luz aspectos hasta ahora desconocidos sobre el desarrollo de Claude, el modelo de lenguaje avanzado creado por Anthropic. Este documento, titulado Soul Overview, fue revelado por el investigador Richard Weiss tras una inesperada interacción con el modelo Claude 4.5 Opus. Aunque inicialmente se pensó que podría tratarse de una alucinación generada por la IA, Amanda Askell, integrante del equipo técnico de Anthropic, confirmó que el texto es real y formó parte del entrenamiento supervisado del modelo.

Más allá del título simbólico, este «alma» no pretende humanizar a Claude en sentido literal. Se trata de una guía de diseño ético y filosófico que busca dotar al modelo de una comprensión profunda de valores humanos, conocimiento contextual y capacidad de actuar de manera responsable. La intención de Anthropic no es que Claude siga un conjunto de reglas predeterminadas, sino que pueda razonar de forma autónoma sobre lo que está bien o mal, entendiendo el contexto, las motivaciones y las posibles consecuencias de sus respuestas. Continúa leyendo «Claude y su «alma»: el documento filtrado que revela la visión ética de Anthropic sobre la IA»

Anthropic presenta un avance clave para mejorar la memoria de agentes de IA a largo plazo

Uno de los mayores retos técnicos en el desarrollo de agentes de inteligencia artificial es su capacidad para mantener la coherencia y continuidad a lo largo del tiempo. Estos sistemas, basados en modelos fundacionales como Claude de Anthropic, tienen una limitación inherente: trabajan dentro de «ventanas de contexto» finitas. Dicho de otra forma, es como si el agente solo pudiera recordar lo que cabe en una pizarra pequeña; cuando la tarea se extiende o se vuelve compleja, la información anterior se borra para dar paso a la nueva. Esto puede generar errores, repeticiones o decisiones incoherentes.

Anthropic se propuso abordar este problema desde su corazón tecnológico: el Claude Agent SDK, una herramienta diseñada para permitir que sus agentes trabajen de forma autónoma en tareas prolongadas. En su más reciente anuncio, la compañía asegura haber encontrado una forma efectiva de dar continuidad a estos agentes entre sesiones, sin que pierdan el hilo de lo que estaban haciendo. Continúa leyendo «Anthropic presenta un avance clave para mejorar la memoria de agentes de IA a largo plazo»