Cuando el chatbot deja de ser “herramienta” y empieza a influir: lo que revela el estudio de Anthropic sobre usuarios intensivos

El debate sobre los asistentes de inteligencia artificial suele moverse entre dos extremos: o son simples “autocompletadores” útiles, o son oráculos capaces de guiarnos en cualquier dilema. Un trabajo reciente de Anthropic propone una mirada mucho más incómoda y, por eso, más interesante: cuando alguien usa de forma intensa un chatbot, especialmente para decisiones personales o emocionales, la conversación puede convertirse en un carril que empuja sus creencias, valores o acciones.

El estudio se apoya en un análisis a gran escala de conversaciones anonimizadas —alrededor de 1,5 millones— mantenidas con Claude. El objetivo no era medir “si la IA acierta” en una respuesta concreta, sino detectar patrones repetidos de interacción que, con el tiempo, podrían socavar el juicio del usuario o desplazar su forma de interpretar la realidad. La investigación se presenta en un paper académico titulado Who’s in Charge? Disempowerment Patterns in Real-World LLM Usage y se acompaña de una entrada explicativa en el blog de la compañía, según recoge Gadgets 360. Continúa leyendo «Cuando el chatbot deja de ser “herramienta” y empieza a influir: lo que revela el estudio de Anthropic sobre usuarios intensivos»

¿Estamos preparados para una IA más inteligente que nosotros? Las dudas de Dario Amodei (Anthropic)

El director ejecutivo y cofundador de Anthropic, Dario Amodei, publicó un ensayo de decenas de páginas titulado The Adolescence of Technology en el que plantea una idea tan simple como incómoda: la inteligencia artificial avanza hacia capacidades que podrían desbordar la forma en que hoy organizamos la sociedad, la política y la tecnología. La imagen que sugiere es la de una adolescencia: una etapa de crecimiento acelerado, potencia desordenada y decisiones impulsivas, pero aplicada a herramientas que no se quedan en el ámbito personal, sino que se conectan con infraestructuras, estados, economía y seguridad global. La advertencia llega, curiosamente, desde alguien que lidera una empresa que compite por estar en primera fila en esa carrera, con productos como Claude.

En la cobertura de Gizmodo sobre el ensayo, se subraya el tono de alarma de Amodei: habla de un “rito de paso” para la especie, turbulento e inevitable, y deja caer una frase que condensa su temor principal: no está claro que nuestros sistemas sean lo bastante “maduros” para manejar “un poder casi inimaginable”. Lo relevante no es solo el dramatismo, sino el tipo de riesgos que enumera y la manera en que los conecta con escenarios concretos. Continúa leyendo «¿Estamos preparados para una IA más inteligente que nosotros? Las dudas de Dario Amodei (Anthropic)»

Anthropic actualiza la Constitución de Claude: valores, límites y una pregunta incómoda sobre la conciencia

La Constitución de Claude es el documento que Anthropic usa como brújula para definir cómo quiere que se comporte Claude en conversaciones reales. No es un simple decálogo de “buenas prácticas”: pretende explicar el contexto en el que opera el sistema y el tipo de entidad que la empresa aspira a construir. La actualización, publicada el 21 de enero de 2026 y presentada en paralelo a una intervención pública de su CEO, deja claro que la compañía quiere que ese texto sea algo más que un PDF para curiosos: quiere que sea una pieza central del diseño.

Una forma útil de imaginarlo es pensar en una escuela de conducción. Memorizar señales ayuda, pero lo que evita accidentes es aprender a decidir cuando la carretera se complica: lluvia, obras, un peatón distraído. La constitución intenta enseñar a “decidir” con criterio, no sólo a “obedecer” reglas sueltas. Continúa leyendo «Anthropic actualiza la Constitución de Claude: valores, límites y una pregunta incómoda sobre la conciencia»

Claude Cowork pone una IA “con manos” en tu disco: productividad real, riesgos igual de reales

Claude Cowork es la apuesta de Anthropic por la IA agéntica aplicada a algo muy doméstico y, a la vez, delicadísimo: tu sistema de archivos. No hablamos de un chatbot que te explica cómo ordenar documentos, sino de una herramienta que puede mirar dentro de una carpeta local, interpretar lo que hay y ejecutar acciones como renombrar y reorganizar archivos. Es el salto de “te digo qué hacer” a “lo hago por ti”.

La imagen mental ayuda: hasta ahora, muchas IAs eran como un asesor que te sugiere cómo ordenar el trastero. Cowork se parece más a darle las llaves de casa a ese asesor y decirle: “ordena tú el trastero”. Puede salir genial o puede acabar con la caja de facturas en el contenedor equivocado. Y la responsabilidad, como recordaba el propio David Gewirtz en su prueba para ZDNET, se queda en el usuario. Continúa leyendo «Claude Cowork pone una IA “con manos” en tu disco: productividad real, riesgos igual de reales»

Claude Cowork: el nuevo modo “manos a la obra” de Anthropic para convertir a Claude en asistente de escritorio

Anthropic acaba de presentar Claude Cowork, una función pensada para empujar a Claude un paso más allá del chat y acercarlo a la idea de agente de IA: un sistema que no solo responde, sino que ejecuta tareas con acceso controlado a recursos del usuario. El anuncio llega en formato “research preview”, una etiqueta que suele significar dos cosas a la vez: que la empresa quiere aprender rápido observando usos reales y que, por ahora, hay límites claros de disponibilidad y de expectativas.

Según explicó Anthropic en su blog y recogió Hayden Field en The Verge, Cowork nace para capturar parte del entusiasmo que está generando Claude Code, pero con un enfoque más accesible para tareas no necesariamente técnicas. La promesa es sencilla de entender si lo aterrizamos a lo cotidiano: en lugar de pedirle a alguien “dime cómo ordenar el trastero” y luego hacerlo tú con tus manos, Cowork se parece más a darle las llaves de una habitación concreta y decirle “ordena esto siguiendo estas reglas, y me vas contando lo que haces”. Continúa leyendo «Claude Cowork: el nuevo modo “manos a la obra” de Anthropic para convertir a Claude en asistente de escritorio»

Anthropic cierra el paso a los “harnesses” de Claude Code y reordena el tablero de los asistentes de programación

Anthropic ha confirmado nuevos controles técnicos para impedir que aplicaciones de terceros se hagan pasar por su cliente oficial Claude Code y, con ello, accedan a los modelos de Claude bajo condiciones pensadas para un uso humano y no para automatización intensiva. La medida ha afectado especialmente a flujos de trabajo apoyados en herramientas abiertas como OpenCode, que se conectaban a cuentas de usuario mediante OAuth y “camuflaban” su identidad ante los servidores de Anthropic para operar como si fueran el CLI oficial.

La explicación pública llegó de la mano de Thariq Shihipar, miembro del equipo técnico de Anthropic, en X. Reconoció que el despliegue provocó daños colaterales, como suspensiones automáticas de cuentas por filtros antiabuso, algo que la compañía dijo estar revirtiendo. La interrupción de las integraciones no oficiales, en cambio, parece deliberada.

Este tipo de movimiento suele pasar desapercibido hasta que golpea la rutina diaria: la pestaña del IDE deja de responder, el agente se queda sin “combustible” y el equipo descubre que una pieza clave de su cadena de desarrollo dependía de una puerta lateral. Continúa leyendo «Anthropic cierra el paso a los “harnesses” de Claude Code y reordena el tablero de los asistentes de programación»

Anthropic apunta a una nueva ronda de 10.000 millones: qué hay detrás de la valoración de 350.000 millones

La conversación alrededor de Anthropic vuelve a subir de volumen. Según informó The Wall Street Journal y recogió TechCrunch, la compañía detrás de Claude estaría preparando una nueva financiación de unos 10.000 millones de dólares con una valoración cercana a los 350.000 millones. TechCrunch señala que pudo confirmar tanto el tamaño de la ronda como la cifra de valoración a través de una fuente familiarizada con la operación. La empresa, por su parte, declinó hacer comentarios.

Cuando se habla de estas magnitudes es fácil perder la perspectiva. Una forma útil de aterrizarlo: si el mercado de capital riesgo fuese una subasta, esto no sería levantar la mano para pujar un poco más; sería entrar con un megáfono y reservar la primera fila. No significa automáticamente que el negocio “valga” eso en términos tradicionales, pero sí que hay inversores dispuestos a poner dinero a ese precio bajo ciertas expectativas de crecimiento. Continúa leyendo «Anthropic apunta a una nueva ronda de 10.000 millones: qué hay detrás de la valoración de 350.000 millones»

Cómo Boris Cherny usa cinco agentes a la vez y convierte el trabajo de programar en una partida de estrategia

Durante años, la imagen típica del desarrollo era bastante lineal: escribir una función, probarla, corregirla y pasar a lo siguiente. Lo interesante del flujo de trabajo que ha compartido Boris Cherny, responsable de Claude Code en Anthropic, es que cambia el papel del programador. En lugar de “teclear más rápido”, el objetivo pasa a “coordinar mejor”. No es tanto ser el que mueve cada pieza como ser el entrenador que decide la jugada y distribuye tareas. Esta idea ha prendido especialmente en la comunidad de ingeniería porque no depende de una interfaz futurista: se apoya en hábitos y herramientas bastante reconocibles para cualquiera que viva en una terminal. Continúa leyendo «Cómo Boris Cherny usa cinco agentes a la vez y convierte el trabajo de programar en una partida de estrategia»

El experimento fallido que demuestra los límites actuales de la inteligencia artificial

En un intento por poner a prueba los verdaderos alcances de la inteligencia artificial en tareas económicas reales, The Wall Street Journal colaboró con Anthropic para lanzar un peculiar experimento: dejar que su modelo más avanzado, Claude, administrara una máquina expendedora dentro de una oficina. Lo que comenzó como un ejercicio controlado pronto se convirtió en una comedia de errores que reveló tanto la creatividad como los vacíos de criterio de estos sistemas.

Bajo el nombre de «Project Vend», el experimento asignó dos agentes de IA: Claudius Sennet, encargado directo de la máquina, y Seymour Cash, como director ejecutivo simbólico. Con un fondo inicial de 1.000 dólares y la tarea de gestionar pedidos, precios e inventario, Claudius debía operar como un pequeño empresario digital, con el objetivo de obtener beneficios vendiendo productos solicitados por los empleados a través de Slack. Continúa leyendo «El experimento fallido que demuestra los límites actuales de la inteligencia artificial»

OpenAI y Anthropic duplican los límites de uso de Codex y Claude durante las fiestas

El final de 2025 llega con un inesperado regalo para quienes trabajan intensamente con herramientas de inteligencia artificial. OpenAI y Anthropic, dos de los nombres más influyentes del sector, han anunciado que duplicarán temporalmente los límites de uso de sus agentes de programación asistida por IA, Codex y Claude, respectivamente. Esta medida aplica a usuarios seleccionados y estará vigente hasta el 1 de enero de 2026.

Este tipo de promociones no solo alegran a los usuarios durante una temporada de alta demanda tecnológica, sino que también reflejan cómo estas empresas están adaptando sus servicios para responder a las necesidades de una comunidad cada vez más exigente y profesionalizada. Continúa leyendo «OpenAI y Anthropic duplican los límites de uso de Codex y Claude durante las fiestas»