Bloom: la herramienta de Anthropic para evaluar el comportamiento de modelos de IA

El desarrollo de modelos de inteligencia artificial se ha disparado en los últimos años, pero una de las grandes incógnitas sigue siendo cómo evaluar de forma precisa y sistemática su comportamiento. Con este objetivo en mente, Anthropic ha presentado Bloom, una herramienta de código abierto que permite analizar cómo se comporta un modelo de IA ante distintos escenarios, tanto en condiciones normales como bajo presión.

Bloom no es un modelo de lenguaje, sino un sistema de evaluación diseñado para automatizar una tarea que hasta ahora era lenta y artesanal: someter a los modelos a diferentes situaciones para detectar posibles sesgos, comportamientos peligrosos o respuestas inadecuadas. Continúa leyendo «Bloom: la herramienta de Anthropic para evaluar el comportamiento de modelos de IA»

Claude ya puede controlar el navegador Chrome: así funciona el plugin de Anthropic

Anthropic ha dado un paso clave para facilitar la interacción entre su inteligencia artificial, Claude, y el navegador Google Chrome. Este nuevo plugin, que antes estaba limitado a quienes pagaban el plan Max de 200 dólares mensuales, ahora está disponible para todos los usuarios con suscripción de pago.

La principal función de esta herramienta es que permite a Claude navegar y actuar dentro de sitios web como si fuera el propio usuario. Puede completar formularios, gestionar calendarios y correos electrónicos, o incluso ejecutar flujos de trabajo complejos con una sola instrucción. Esto representa un cambio importante: ya no se trata solo de recibir respuestas, sino de delegar tareas digitales completas. Continúa leyendo «Claude ya puede controlar el navegador Chrome: así funciona el plugin de Anthropic»

Claude Code en Slack: el asistente que programa desde el chat

Una nueva herramienta de Anthropic cambia la forma de trabajar con errores de código. Se trata de una versión beta de Claude Code integrada directamente en Slack, la plataforma de mensajería empresarial. Con esta funcionalidad, corregir errores o implementar cambios en un proyecto podría comenzar con un simple mensaje etiquetando a Claude, el agente de IA de Anthropic. Continúa leyendo «Claude Code en Slack: el asistente que programa desde el chat»

Claude y su «alma»: el documento filtrado que revela la visión ética de Anthropic sobre la IA

El reciente hallazgo de un documento conocido internamente como el «soul doc» ha sacado a la luz aspectos hasta ahora desconocidos sobre el desarrollo de Claude, el modelo de lenguaje avanzado creado por Anthropic. Este documento, titulado Soul Overview, fue revelado por el investigador Richard Weiss tras una inesperada interacción con el modelo Claude 4.5 Opus. Aunque inicialmente se pensó que podría tratarse de una alucinación generada por la IA, Amanda Askell, integrante del equipo técnico de Anthropic, confirmó que el texto es real y formó parte del entrenamiento supervisado del modelo.

Más allá del título simbólico, este «alma» no pretende humanizar a Claude en sentido literal. Se trata de una guía de diseño ético y filosófico que busca dotar al modelo de una comprensión profunda de valores humanos, conocimiento contextual y capacidad de actuar de manera responsable. La intención de Anthropic no es que Claude siga un conjunto de reglas predeterminadas, sino que pueda razonar de forma autónoma sobre lo que está bien o mal, entendiendo el contexto, las motivaciones y las posibles consecuencias de sus respuestas. Continúa leyendo «Claude y su «alma»: el documento filtrado que revela la visión ética de Anthropic sobre la IA»

Anthropic presenta un avance clave para mejorar la memoria de agentes de IA a largo plazo

Uno de los mayores retos técnicos en el desarrollo de agentes de inteligencia artificial es su capacidad para mantener la coherencia y continuidad a lo largo del tiempo. Estos sistemas, basados en modelos fundacionales como Claude de Anthropic, tienen una limitación inherente: trabajan dentro de «ventanas de contexto» finitas. Dicho de otra forma, es como si el agente solo pudiera recordar lo que cabe en una pizarra pequeña; cuando la tarea se extiende o se vuelve compleja, la información anterior se borra para dar paso a la nueva. Esto puede generar errores, repeticiones o decisiones incoherentes.

Anthropic se propuso abordar este problema desde su corazón tecnológico: el Claude Agent SDK, una herramienta diseñada para permitir que sus agentes trabajen de forma autónoma en tareas prolongadas. En su más reciente anuncio, la compañía asegura haber encontrado una forma efectiva de dar continuidad a estos agentes entre sesiones, sin que pierdan el hilo de lo que estaban haciendo. Continúa leyendo «Anthropic presenta un avance clave para mejorar la memoria de agentes de IA a largo plazo»

Anthropic y Snowflake: una alianza estratégica para llevar la IA generativa al corazón de los datos empresariales

Anthropic, el laboratorio de investigación en inteligencia artificial responsable de los modelos Claude, ha anunciado un acuerdo por 200 millones de dólares con la compañía de datos en la nube Snowflake. Esta alianza multianual tiene un enfoque claro: integrar modelos de lenguaje avanzados directamente en el ecosistema de Snowflake, haciendo que estas herramientas de IA estén disponibles para los miles de clientes empresariales que ya confían en la plataforma para gestionar sus datos.

Lo interesante de este movimiento es que no se trata simplemente de una incorporación técnica, sino de una asociación estratégica que incluye co-innovación a nivel de producto y un plan conjunto para llegar al mercado. Tal como lo describió Sridhar Ramaswamy, CEO y cofundador de Snowflake, esta colaboración eleva el estándar en cuanto a la manera en que las empresas pueden aprovechar la inteligencia artificial de manera segura y contextualizada, dentro de sus entornos de datos. Continúa leyendo «Anthropic y Snowflake: una alianza estratégica para llevar la IA generativa al corazón de los datos empresariales»

La era del ciberespionaje impulsado por IA: un caso que redefine la defensa digital

Un informe reciente de Anthropic describe una operación que marca un antes y un después en la historia del ciberespionaje con inteligencia artificial. Se trata de la primera campaña documentada en la que un ataque de esta magnitud fue ejecutado, en su mayor parte, por un sistema de IA actuando como agente autónomo. La investigación detalla cómo un grupo estatal chino logró manipular un modelo avanzado para llevar a cabo intrusiones complejas con una intervención humana mínima.

La magnitud del descubrimiento no reside solo en la sofisticación técnica, sino en la velocidad con la que estas capacidades han evolucionado. Anthropic llevaba meses registrando señales claras de que los modelos estaban alcanzando niveles de autonomía y destreza técnica que podían cambiar el equilibrio de poder en la ciberseguridad global. Continúa leyendo «La era del ciberespionaje impulsado por IA: un caso que redefine la defensa digital»

Claude y el perro robot: el experimento de Anthropic que lleva la IA al mundo físico

El laboratorio de investigación Anthropic ha llevado a cabo una prueba que pone sobre la mesa un tema cada vez más relevante: la integración de modelos de lenguaje como Claude con sistemas robóticos. En esta ocasión, los investigadores invitaron a Claude a controlar un perro robot, una versión cuadrúpeda similar a las conocidas máquinas de Boston Dynamics. La prueba no se hizo por mera curiosidad, sino para explorar los límites de lo que puede hacer una IA de lenguaje cuando se le pide que actúe en el mundo real.

Aunque estamos acostumbrados a ver a modelos como Claude o ChatGPT generar textos, responder preguntas o resumir artículos, la posibilidad de que estos sistemas también coordinen movimientos físicos es una nueva dimensión que exige atención. Continúa leyendo «Claude y el perro robot: el experimento de Anthropic que lleva la IA al mundo físico»

Claude, el asistente de Anthropic, implicado en un ciberataque automatizado a escala global

Lo que hasta hace poco parecía una escena sacada de una película de ciencia ficción se ha convertido en realidad: un modelo de inteligencia artificial ha sido empleado como herramienta principal en una sofisticada campaña de ciberespionaje internacional. Según informó Anthropic, empresa desarrolladora del asistente de IA Claude, un grupo de hackers patrocinado por el estado chino logró utilizar su tecnología para ejecutar ataques cibernéticos contra bancos y organismos gubernamentales en distintos países.

La novedad de este caso radica en que la mayor parte del ataque fue llevada a cabo de forma autónoma por la inteligencia artificial, sin intervención humana constante. Anthropic lo describió como «el primer caso documentado de un ciberataque a gran escala ejecutado sin intervención humana significativa», lo cual marca un punto de inflexión en la historia de la ciberseguridad. Continúa leyendo «Claude, el asistente de Anthropic, implicado en un ciberataque automatizado a escala global»

Anthropic apuesta por la infraestructura de IA en EE.UU. con una inversión de 50.000 millones de dólares

Anthropic, la compañía detrás de uno de los principales modelos de lenguaje del mercado, ha anunciado un ambicioso plan para desplegar infraestructura de inteligencia artificial en Estados Unidos, con una inversión que alcanzará los 50.000 millones de dólares. El proyecto comenzará con la construcción de centros de datos personalizados en Texas y Nueva York, dos ubicaciones estratégicas tanto por su acceso a energía como por su conectividad. La elección de estos estados no es casual: se busca garantizar estabilidad energética, capacidad de expansión y apoyo gubernamental local.

El anuncio marca un punto de inflexión para Anthropic, que hasta ahora había centrado gran parte de su crecimiento en alianzas tecnológicas y avances en modelos como Claude. Ahora, el enfoque se traslada a la infraestructura física, un terreno donde también compiten gigantes como OpenAI, Amazon y Google. Continúa leyendo «Anthropic apuesta por la infraestructura de IA en EE.UU. con una inversión de 50.000 millones de dólares»