¿Estamos preparados para una IA más inteligente que nosotros? Las dudas de Dario Amodei (Anthropic)

El director ejecutivo y cofundador de Anthropic, Dario Amodei, publicó un ensayo de decenas de páginas titulado The Adolescence of Technology en el que plantea una idea tan simple como incómoda: la inteligencia artificial avanza hacia capacidades que podrían desbordar la forma en que hoy organizamos la sociedad, la política y la tecnología. La imagen que sugiere es la de una adolescencia: una etapa de crecimiento acelerado, potencia desordenada y decisiones impulsivas, pero aplicada a herramientas que no se quedan en el ámbito personal, sino que se conectan con infraestructuras, estados, economía y seguridad global. La advertencia llega, curiosamente, desde alguien que lidera una empresa que compite por estar en primera fila en esa carrera, con productos como Claude.

En la cobertura de Gizmodo sobre el ensayo, se subraya el tono de alarma de Amodei: habla de un “rito de paso” para la especie, turbulento e inevitable, y deja caer una frase que condensa su temor principal: no está claro que nuestros sistemas sean lo bastante “maduros” para manejar “un poder casi inimaginable”. Lo relevante no es solo el dramatismo, sino el tipo de riesgos que enumera y la manera en que los conecta con escenarios concretos. Continúa leyendo «¿Estamos preparados para una IA más inteligente que nosotros? Las dudas de Dario Amodei (Anthropic)»

Claude suma aplicaciones interactivas: Slack, Figma y Canva entran en el chat de Anthropic

Hasta ahora, pedirle algo a un chatbot era como hablar con un compañero muy listo por mensajería: te respondía con texto, te explicaba pasos y, con suerte, te dejaba un resultado para copiar y pegar en otra herramienta. Con la nueva función de aplicaciones interactivas en Claude, Anthropic intenta acortar ese paseo de “ida y vuelta” entre pestañas: dentro del propio chat aparecen interfaces de herramientas de trabajo para ejecutar acciones y ver resultados en un formato visual, no solo en forma de párrafos. La noticia la adelantó TechCrunch y la compañía la presentó como una forma de trabajar “más rápido” combinando la inteligencia del modelo con paneles dedicados para diseñar, analizar datos o gestionar proyectos.

La idea de fondo es sencilla de entender con una metáfora cotidiana: si el chatbot era el copiloto que te iba leyendo instrucciones, ahora también puede abrirte el salpicadero y tocar algunos mandos contigo mirando. No sustituye a las apps, sino que acerca sus controles al lugar donde ya estás pidiendo cosas. Continúa leyendo «Claude suma aplicaciones interactivas: Slack, Figma y Canva entran en el chat de Anthropic»

Anthropic actualiza la Constitución de Claude: valores, límites y una pregunta incómoda sobre la conciencia

La Constitución de Claude es el documento que Anthropic usa como brújula para definir cómo quiere que se comporte Claude en conversaciones reales. No es un simple decálogo de “buenas prácticas”: pretende explicar el contexto en el que opera el sistema y el tipo de entidad que la empresa aspira a construir. La actualización, publicada el 21 de enero de 2026 y presentada en paralelo a una intervención pública de su CEO, deja claro que la compañía quiere que ese texto sea algo más que un PDF para curiosos: quiere que sea una pieza central del diseño.

Una forma útil de imaginarlo es pensar en una escuela de conducción. Memorizar señales ayuda, pero lo que evita accidentes es aprender a decidir cuando la carretera se complica: lluvia, obras, un peatón distraído. La constitución intenta enseñar a “decidir” con criterio, no sólo a “obedecer” reglas sueltas. Continúa leyendo «Anthropic actualiza la Constitución de Claude: valores, límites y una pregunta incómoda sobre la conciencia»

Slackbot vuelve con traje de agente de IA: la apuesta de Salesforce para que Slack sea el “centro de mando” del trabajo

Durante años, Slackbot fue ese compañero discreto que te recordaba normas de un canal, te sugería archivos o te soltaba avisos como quien deja una nota en la nevera. Salesforce lo ha reconstruido por completo para convertirlo en un agente de IA capaz de buscar información en sistemas corporativos, redactar documentos y ejecutar acciones dentro del flujo de trabajo. Según detalló la compañía en declaraciones recogidas por VentureBeat, la idea es que Slack deje de ser solo un lugar para chatear y pase a actuar como la puerta de entrada al trabajo “agéntico”, esa nueva ola en la que el software no solo responde, también colabora.

La metáfora interna que usaron para explicarlo es bastante gráfica: el Slackbot antiguo era como un triciclo; el nuevo se siente como un coche deportivo. Traducido a la vida real, significa pasar de tareas simples y preprogramadas a un sistema que entiende peticiones en lenguaje natural y sabe moverse por datos dispersos, como si un bibliotecario con súperpoderes pudiera recorrer estanterías, archivadores y conversaciones antiguas en segundos. Continúa leyendo «Slackbot vuelve con traje de agente de IA: la apuesta de Salesforce para que Slack sea el “centro de mando” del trabajo»

El experimento fallido que demuestra los límites actuales de la inteligencia artificial

En un intento por poner a prueba los verdaderos alcances de la inteligencia artificial en tareas económicas reales, The Wall Street Journal colaboró con Anthropic para lanzar un peculiar experimento: dejar que su modelo más avanzado, Claude, administrara una máquina expendedora dentro de una oficina. Lo que comenzó como un ejercicio controlado pronto se convirtió en una comedia de errores que reveló tanto la creatividad como los vacíos de criterio de estos sistemas.

Bajo el nombre de «Project Vend», el experimento asignó dos agentes de IA: Claudius Sennet, encargado directo de la máquina, y Seymour Cash, como director ejecutivo simbólico. Con un fondo inicial de 1.000 dólares y la tarea de gestionar pedidos, precios e inventario, Claudius debía operar como un pequeño empresario digital, con el objetivo de obtener beneficios vendiendo productos solicitados por los empleados a través de Slack. Continúa leyendo «El experimento fallido que demuestra los límites actuales de la inteligencia artificial»

OpenAI y Anthropic duplican los límites de uso de Codex y Claude durante las fiestas

El final de 2025 llega con un inesperado regalo para quienes trabajan intensamente con herramientas de inteligencia artificial. OpenAI y Anthropic, dos de los nombres más influyentes del sector, han anunciado que duplicarán temporalmente los límites de uso de sus agentes de programación asistida por IA, Codex y Claude, respectivamente. Esta medida aplica a usuarios seleccionados y estará vigente hasta el 1 de enero de 2026.

Este tipo de promociones no solo alegran a los usuarios durante una temporada de alta demanda tecnológica, sino que también reflejan cómo estas empresas están adaptando sus servicios para responder a las necesidades de una comunidad cada vez más exigente y profesionalizada. Continúa leyendo «OpenAI y Anthropic duplican los límites de uso de Codex y Claude durante las fiestas»

Claude ya puede controlar el navegador Chrome: así funciona el plugin de Anthropic

Anthropic ha dado un paso clave para facilitar la interacción entre su inteligencia artificial, Claude, y el navegador Google Chrome. Este nuevo plugin, que antes estaba limitado a quienes pagaban el plan Max de 200 dólares mensuales, ahora está disponible para todos los usuarios con suscripción de pago.

La principal función de esta herramienta es que permite a Claude navegar y actuar dentro de sitios web como si fuera el propio usuario. Puede completar formularios, gestionar calendarios y correos electrónicos, o incluso ejecutar flujos de trabajo complejos con una sola instrucción. Esto representa un cambio importante: ya no se trata solo de recibir respuestas, sino de delegar tareas digitales completas. Continúa leyendo «Claude ya puede controlar el navegador Chrome: así funciona el plugin de Anthropic»

Anthropic apuesta por los «Agent Skills» como nuevo estándar abierto para la IA en empresas

Anthropic está trazando un nuevo camino en el mundo de la inteligencia artificial para empresas con su propuesta de Agent Skills, una tecnología que ya está siendo adoptada por actores clave del sector como Microsoft, GitHub y otros desarrolladores de asistentes de código. Lo más llamativo no es solo su funcionalidad, sino su apuesta por ser un estándar abierto, permitiendo que cualquier empresa o desarrollador integre esta estructura sin depender exclusivamente del ecosistema de Anthropic.

La idea central de estos Agent Skills es simple pero poderosa: encapsular conocimiento especializado en pequeños paquetes reutilizables. Son carpetas que contienen instrucciones, scripts y recursos que le enseñan a un asistente de IA cómo realizar tareas específicas de forma consistente. Esta solución evita tener que escribir prompts complejos cada vez que se quiere ejecutar una acción concreta, facilitando procesos que van desde generar presentaciones hasta automatizar informes contables. Continúa leyendo «Anthropic apuesta por los «Agent Skills» como nuevo estándar abierto para la IA en empresas»

Dejar de usar ChatGPT para todo: modelos de IA más eficientes para tareas específicas

En el universo acelerado de la inteligencia artificial generativa, muchos usuarios caen en la trampa de depender exclusivamente de ChatGPT para cualquier tarea. Sin embargo, al igual que no usamos un destornillador para clavar un clavo, tampoco deberíamos usar un solo modelo de IA para todo. Cada modelo tiene fortalezas únicas que lo hacen más adecuado para ciertos usos, y entender esas diferencias puede mejorar tanto la eficiencia como la calidad de los resultados. Continúa leyendo «Dejar de usar ChatGPT para todo: modelos de IA más eficientes para tareas específicas»

Claude y su «alma»: el documento filtrado que revela la visión ética de Anthropic sobre la IA

El reciente hallazgo de un documento conocido internamente como el «soul doc» ha sacado a la luz aspectos hasta ahora desconocidos sobre el desarrollo de Claude, el modelo de lenguaje avanzado creado por Anthropic. Este documento, titulado Soul Overview, fue revelado por el investigador Richard Weiss tras una inesperada interacción con el modelo Claude 4.5 Opus. Aunque inicialmente se pensó que podría tratarse de una alucinación generada por la IA, Amanda Askell, integrante del equipo técnico de Anthropic, confirmó que el texto es real y formó parte del entrenamiento supervisado del modelo.

Más allá del título simbólico, este «alma» no pretende humanizar a Claude en sentido literal. Se trata de una guía de diseño ético y filosófico que busca dotar al modelo de una comprensión profunda de valores humanos, conocimiento contextual y capacidad de actuar de manera responsable. La intención de Anthropic no es que Claude siga un conjunto de reglas predeterminadas, sino que pueda razonar de forma autónoma sobre lo que está bien o mal, entendiendo el contexto, las motivaciones y las posibles consecuencias de sus respuestas. Continúa leyendo «Claude y su «alma»: el documento filtrado que revela la visión ética de Anthropic sobre la IA»