Anthropic actualiza la Constitución de Claude: valores, límites y una pregunta incómoda sobre la conciencia

La Constitución de Claude es el documento que Anthropic usa como brújula para definir cómo quiere que se comporte Claude en conversaciones reales. No es un simple decálogo de “buenas prácticas”: pretende explicar el contexto en el que opera el sistema y el tipo de entidad que la empresa aspira a construir. La actualización, publicada el 21 de enero de 2026 y presentada en paralelo a una intervención pública de su CEO, deja claro que la compañía quiere que ese texto sea algo más que un PDF para curiosos: quiere que sea una pieza central del diseño.

Una forma útil de imaginarlo es pensar en una escuela de conducción. Memorizar señales ayuda, pero lo que evita accidentes es aprender a decidir cuando la carretera se complica: lluvia, obras, un peatón distraído. La constitución intenta enseñar a “decidir” con criterio, no sólo a “obedecer” reglas sueltas. Continúa leyendo «Anthropic actualiza la Constitución de Claude: valores, límites y una pregunta incómoda sobre la conciencia»

Slackbot vuelve con traje de agente de IA: la apuesta de Salesforce para que Slack sea el “centro de mando” del trabajo

Durante años, Slackbot fue ese compañero discreto que te recordaba normas de un canal, te sugería archivos o te soltaba avisos como quien deja una nota en la nevera. Salesforce lo ha reconstruido por completo para convertirlo en un agente de IA capaz de buscar información en sistemas corporativos, redactar documentos y ejecutar acciones dentro del flujo de trabajo. Según detalló la compañía en declaraciones recogidas por VentureBeat, la idea es que Slack deje de ser solo un lugar para chatear y pase a actuar como la puerta de entrada al trabajo “agéntico”, esa nueva ola en la que el software no solo responde, también colabora.

La metáfora interna que usaron para explicarlo es bastante gráfica: el Slackbot antiguo era como un triciclo; el nuevo se siente como un coche deportivo. Traducido a la vida real, significa pasar de tareas simples y preprogramadas a un sistema que entiende peticiones en lenguaje natural y sabe moverse por datos dispersos, como si un bibliotecario con súperpoderes pudiera recorrer estanterías, archivadores y conversaciones antiguas en segundos. Continúa leyendo «Slackbot vuelve con traje de agente de IA: la apuesta de Salesforce para que Slack sea el “centro de mando” del trabajo»

El experimento fallido que demuestra los límites actuales de la inteligencia artificial

En un intento por poner a prueba los verdaderos alcances de la inteligencia artificial en tareas económicas reales, The Wall Street Journal colaboró con Anthropic para lanzar un peculiar experimento: dejar que su modelo más avanzado, Claude, administrara una máquina expendedora dentro de una oficina. Lo que comenzó como un ejercicio controlado pronto se convirtió en una comedia de errores que reveló tanto la creatividad como los vacíos de criterio de estos sistemas.

Bajo el nombre de «Project Vend», el experimento asignó dos agentes de IA: Claudius Sennet, encargado directo de la máquina, y Seymour Cash, como director ejecutivo simbólico. Con un fondo inicial de 1.000 dólares y la tarea de gestionar pedidos, precios e inventario, Claudius debía operar como un pequeño empresario digital, con el objetivo de obtener beneficios vendiendo productos solicitados por los empleados a través de Slack. Continúa leyendo «El experimento fallido que demuestra los límites actuales de la inteligencia artificial»

OpenAI y Anthropic duplican los límites de uso de Codex y Claude durante las fiestas

El final de 2025 llega con un inesperado regalo para quienes trabajan intensamente con herramientas de inteligencia artificial. OpenAI y Anthropic, dos de los nombres más influyentes del sector, han anunciado que duplicarán temporalmente los límites de uso de sus agentes de programación asistida por IA, Codex y Claude, respectivamente. Esta medida aplica a usuarios seleccionados y estará vigente hasta el 1 de enero de 2026.

Este tipo de promociones no solo alegran a los usuarios durante una temporada de alta demanda tecnológica, sino que también reflejan cómo estas empresas están adaptando sus servicios para responder a las necesidades de una comunidad cada vez más exigente y profesionalizada. Continúa leyendo «OpenAI y Anthropic duplican los límites de uso de Codex y Claude durante las fiestas»

Claude ya puede controlar el navegador Chrome: así funciona el plugin de Anthropic

Anthropic ha dado un paso clave para facilitar la interacción entre su inteligencia artificial, Claude, y el navegador Google Chrome. Este nuevo plugin, que antes estaba limitado a quienes pagaban el plan Max de 200 dólares mensuales, ahora está disponible para todos los usuarios con suscripción de pago.

La principal función de esta herramienta es que permite a Claude navegar y actuar dentro de sitios web como si fuera el propio usuario. Puede completar formularios, gestionar calendarios y correos electrónicos, o incluso ejecutar flujos de trabajo complejos con una sola instrucción. Esto representa un cambio importante: ya no se trata solo de recibir respuestas, sino de delegar tareas digitales completas. Continúa leyendo «Claude ya puede controlar el navegador Chrome: así funciona el plugin de Anthropic»

Anthropic apuesta por los «Agent Skills» como nuevo estándar abierto para la IA en empresas

Anthropic está trazando un nuevo camino en el mundo de la inteligencia artificial para empresas con su propuesta de Agent Skills, una tecnología que ya está siendo adoptada por actores clave del sector como Microsoft, GitHub y otros desarrolladores de asistentes de código. Lo más llamativo no es solo su funcionalidad, sino su apuesta por ser un estándar abierto, permitiendo que cualquier empresa o desarrollador integre esta estructura sin depender exclusivamente del ecosistema de Anthropic.

La idea central de estos Agent Skills es simple pero poderosa: encapsular conocimiento especializado en pequeños paquetes reutilizables. Son carpetas que contienen instrucciones, scripts y recursos que le enseñan a un asistente de IA cómo realizar tareas específicas de forma consistente. Esta solución evita tener que escribir prompts complejos cada vez que se quiere ejecutar una acción concreta, facilitando procesos que van desde generar presentaciones hasta automatizar informes contables. Continúa leyendo «Anthropic apuesta por los «Agent Skills» como nuevo estándar abierto para la IA en empresas»

Dejar de usar ChatGPT para todo: modelos de IA más eficientes para tareas específicas

En el universo acelerado de la inteligencia artificial generativa, muchos usuarios caen en la trampa de depender exclusivamente de ChatGPT para cualquier tarea. Sin embargo, al igual que no usamos un destornillador para clavar un clavo, tampoco deberíamos usar un solo modelo de IA para todo. Cada modelo tiene fortalezas únicas que lo hacen más adecuado para ciertos usos, y entender esas diferencias puede mejorar tanto la eficiencia como la calidad de los resultados. Continúa leyendo «Dejar de usar ChatGPT para todo: modelos de IA más eficientes para tareas específicas»

Claude y su «alma»: el documento filtrado que revela la visión ética de Anthropic sobre la IA

El reciente hallazgo de un documento conocido internamente como el «soul doc» ha sacado a la luz aspectos hasta ahora desconocidos sobre el desarrollo de Claude, el modelo de lenguaje avanzado creado por Anthropic. Este documento, titulado Soul Overview, fue revelado por el investigador Richard Weiss tras una inesperada interacción con el modelo Claude 4.5 Opus. Aunque inicialmente se pensó que podría tratarse de una alucinación generada por la IA, Amanda Askell, integrante del equipo técnico de Anthropic, confirmó que el texto es real y formó parte del entrenamiento supervisado del modelo.

Más allá del título simbólico, este «alma» no pretende humanizar a Claude en sentido literal. Se trata de una guía de diseño ético y filosófico que busca dotar al modelo de una comprensión profunda de valores humanos, conocimiento contextual y capacidad de actuar de manera responsable. La intención de Anthropic no es que Claude siga un conjunto de reglas predeterminadas, sino que pueda razonar de forma autónoma sobre lo que está bien o mal, entendiendo el contexto, las motivaciones y las posibles consecuencias de sus respuestas. Continúa leyendo «Claude y su «alma»: el documento filtrado que revela la visión ética de Anthropic sobre la IA»

Anthropic y Snowflake: una alianza estratégica para llevar la IA generativa al corazón de los datos empresariales

Anthropic, el laboratorio de investigación en inteligencia artificial responsable de los modelos Claude, ha anunciado un acuerdo por 200 millones de dólares con la compañía de datos en la nube Snowflake. Esta alianza multianual tiene un enfoque claro: integrar modelos de lenguaje avanzados directamente en el ecosistema de Snowflake, haciendo que estas herramientas de IA estén disponibles para los miles de clientes empresariales que ya confían en la plataforma para gestionar sus datos.

Lo interesante de este movimiento es que no se trata simplemente de una incorporación técnica, sino de una asociación estratégica que incluye co-innovación a nivel de producto y un plan conjunto para llegar al mercado. Tal como lo describió Sridhar Ramaswamy, CEO y cofundador de Snowflake, esta colaboración eleva el estándar en cuanto a la manera en que las empresas pueden aprovechar la inteligencia artificial de manera segura y contextualizada, dentro de sus entornos de datos. Continúa leyendo «Anthropic y Snowflake: una alianza estratégica para llevar la IA generativa al corazón de los datos empresariales»

El futuro de los agentes de IA: Claude aprende a usar herramientas de forma avanzada

Uno de los grandes desafíos en el desarrollo de agentes inteligentes es cómo manejar bibliotecas de herramientas cada vez más extensas sin saturar el sistema. Hasta ahora, los modelos de lenguaje como Claude debían cargar previamente todas las definiciones de herramientas, lo que podía consumir decenas de miles de tokens incluso antes de empezar una tarea.

Con la introducción de Tool Search Tool, este obstáculo se reduce drásticamente. Esta función permite a Claude descubrir herramientas de forma dinámica, accediendo solo a aquellas necesarias para la tarea actual. En lugar de cargar todo el arsenal de funciones disponibles (que puede superar los 100.000 tokens en entornos complejos como MCP), Claude inicia con una carga mínima y busca herramientas relevantes cuando las necesita. Esto no solo preserva la memoria del sistema, sino que también mejora la precisión, al reducir el riesgo de usar una herramienta incorrecta con parámetros mal definidos. Continúa leyendo «El futuro de los agentes de IA: Claude aprende a usar herramientas de forma avanzada»