Si usas Claude, es probable que te hayas topado alguna vez con ese “te quedan pocos mensajes” justo cuando estabas cerrando una idea, puliendo un texto o depurando una función. Anthropic ha decidido aliviar un poco esa sensación de “me cortan la conversación” con una promoción temporal: durante un periodo limitado, el servicio ofrece el doble de límite de uso cuando se utiliza fuera de las horas de mayor demanda. La compañía lo presenta como un “pequeño agradecimiento”, pero el movimiento también encaja con una lógica muy de infraestructura: incentivar el uso cuando sus servidores están menos cargados, como cuando la tarifa eléctrica es más barata por la noche. Continúa leyendo «Anthropic duplica los límites de uso de Claude en “horas valle” durante dos semanas»
Etiqueta: Anthropic
Anthropic pone números al riesgo laboral de la IA: qué trabajos están más expuestos y por qué
La conversación sobre empleos en riesgo por IA suele moverse entre dos extremos: quienes anuncian un “apocalipsis” inminente y quienes lo reducen a una moda pasajera. En medio, la realidad es más incómoda: hay tareas que la inteligencia artificial ya hace muy bien, otras que hace a medias y un enorme bloque donde, por ahora, ni se asoma. Anthropic, la compañía detrás de Claude, acaba de intentar medir esa frontera con una herramienta propia, y el resultado sugiere que el impacto no será uniforme ni socialmente neutro. Continúa leyendo «Anthropic pone números al riesgo laboral de la IA: qué trabajos están más expuestos y por qué»
Anthropic lleva el Code Review “multiagente” a Claude Code: así funciona su nueva revisión automática de pull requests
Anthropic ha presentado Code Review, una nueva función dentro de Claude Code pensada para revisar pull requests antes de que el código llegue a producción. Según explicó la compañía en un comunicado, la herramienta se ofrece como “research preview” en beta para clientes Team y Enterprise, y busca aliviar un problema que muchas organizaciones ya reconocen: la revisión humana se está convirtiendo en un cuello de botella cuando gran parte del código llega generado o modificado con ayuda de IA. La información se ha conocido a través de Gadgets 360 (NDTV) y de la propia publicación de Anthropic sobre el lanzamiento.
Lo interesante no es solo que “haya un bot que comenta PRs”, porque eso existe desde hace años. El matiz es el enfoque “agentic”: un sistema que despliega varios agentes de IA trabajando en paralelo, con verificación interna para reducir falsos positivos y con priorización por severidad. Traducido a un ejemplo cotidiano: no es una sola persona leyendo un documento con prisa, es un grupo que se reparte capítulos, contrasta dudas entre sí y entrega un resumen final con lo importante subrayado. Continúa leyendo «Anthropic lleva el Code Review “multiagente” a Claude Code: así funciona su nueva revisión automática de pull requests»
Anthropic demanda al Departamento de Defensa por ser marcada como “riesgo en la cadena de suministro”
La relación entre Anthropic y el Departamento de Defensa de Estados Unidos llevaba semanas tensándose, pero el paso de la discusión a la vía judicial cambia el tablero. La compañía, conocida por desarrollar modelos de IA generativa orientados a un uso “responsable”, ha presentado una demanda en un tribunal federal en California tras ser etiquetada por la administración Trump como “supply-chain risk” o riesgo en la cadena de suministro. La acusación central es contundente: el gobierno estaría castigando a la empresa por mantener una postura pública sobre los límites aceptables del uso militar de su tecnología, en especial frente a la vigilancia masiva doméstica y las armas totalmente autónomas.
Lo interesante no es solo el choque entre una firma privada y el aparato de seguridad nacional, sino el tipo de choque. No se discute un fallo técnico o un incumplimiento contractual sin más, sino un “desacuerdo de valores” que, según Anthropic, habría derivado en represalias administrativas. En otras palabras, el debate sobre qué no debe hacer una IA se habría convertido en una herramienta de presión económica y operativa. La información fue publicada por The Verge, que ha seguido el caso dentro de su cobertura sobre el enfrentamiento entre IA y Pentágono. The Verge. Continúa leyendo «Anthropic demanda al Departamento de Defensa por ser marcada como “riesgo en la cadena de suministro”»
Claude Marketplace: el “catálogo corporativo” de Anthropic para comprar herramientas con Claude sin rehacer la burocracia
Anthropic presentó Claude Marketplace como una nueva vía para que empresas ya comprometidas con gasto en Anthropic puedan usar parte de ese presupuesto en herramientas de terceros que incorporan Claude por debajo. La idea es simple de explicar con una escena cotidiana: si tu compañía ya tiene “saldo” en una plataforma, en vez de abrir cuentas nuevas y firmar contratos distintos para cada proveedor, compras desde un único mostrador y recibes una sola factura.
Según la explicación oficial del programa y su FAQ, el Marketplace nace para simplificar procurement y consolidar el gasto en IA. El lanzamiento llega en “limited preview”, lo que en la práctica significa que no es un escaparate abierto para cualquiera: las empresas interesadas deben pasar por su equipo de cuenta y encajar en los criterios de acceso.
Este movimiento también tiene lectura estratégica. Anthropic ha acelerado su cadencia de producto mientras lidia con una disputa pública y compleja con el gobierno de Estados Unidos —VentureBeat la describe como un conflicto “desordenado” con el Departamento de Guerra—, un contexto que empuja a muchas compañías a pedir todavía más claridad contractual, controles y trazabilidad antes de desplegar IA a escala. En ese clima, “centralizar compras y facturación” no suena glamuroso, pero sí tranquilizador. Continúa leyendo «Claude Marketplace: el “catálogo corporativo” de Anthropic para comprar herramientas con Claude sin rehacer la burocracia»
Claude Code incorpora modo voz: programar hablando ya es parte del flujo de trabajo
Programar suele parecerse a cocinar siguiendo una receta: vas leyendo, probando, corrigiendo y volviendo a probar. El teclado es la tabla de cortar y el ratón, el cucharón. Con la llegada del modo voz a Claude Code, Anthropic propone otra forma de moverse por la cocina: pedir acciones en voz alta mientras el asistente ejecuta los cambios. La idea es reducir fricción en tareas repetitivas y abrir un camino más “manos libres” para momentos en los que escribir no es lo más cómodo, como cuando estás revisando un diff, compartiendo pantalla o alternando entre varias ventanas.
Según contó el ingeniero Thariq Shihipar en X, el despliegue es gradual y, por ahora, alcanza a una fracción pequeña de la base de usuarios. La ambición es clara: convertir las interacciones con el asistente de programación en conversaciones más naturales, con menos interrupciones mecánicas. TechCrunch fue uno de los medios que adelantó la novedad y subrayó que se trata de un paso significativo hacia flujos de trabajo más conversacionales. Continúa leyendo «Claude Code incorpora modo voz: programar hablando ya es parte del flujo de trabajo»
Claude quiere que cambies de chatbot sin “empezar de cero”: así funciona su nueva importación de memoria
Cambiar de asistente de IA suele sentirse como mudarse de casa con prisas: tus cosas están, pero en cajas sin etiquetar. Lo que Anthropic propone con su nueva herramienta de importación de memoria para Claude es, básicamente, poner etiquetas a esas cajas. Según ha contado Engadget, la compañía ha creado un método para extraer los recuerdos y el contexto que otro chatbot ha acumulado sobre ti y convertirlo en un texto que luego puedes llevarte a Claude como punto de partida. La idea es que el asistente “te conozca” con cierta continuidad y no tengas que reexplicar tu manera de trabajar, tus preferencias o el tipo de respuestas que sueles pedir.
En la práctica, la memoria en un chatbot no es magia ni una “personalidad” real: es un conjunto de pistas, hábitos y datos resumidos. Cosas como “prefiere respuestas breves”, “está preparando una presentación” o “trabaja con estos temas”. Tenerlo en Claude desde el minuto uno puede marcar diferencia en tareas repetitivas, sobre todo si lo usas como herramienta de productividad. Continúa leyendo «Claude quiere que cambies de chatbot sin “empezar de cero”: así funciona su nueva importación de memoria»
Anthropic y el “tsunami” de la IA: qué hay detrás de la advertencia de Dario Amodei
La metáfora es potente porque apela a un miedo muy humano: ver algo enorme acercarse y no saber si todavía hay tiempo de moverse a terreno alto. El CEO de Anthropic, Dario Amodei, comparó la evolución de la inteligencia artificial con un “tsunami” en el horizonte y sugirió que la sociedad está minimizando señales que, a su juicio, ya son visibles. Lo dijo en una conversación con el inversor indio Nikhil Kamath en el pódcast “WTF Is”, en un episodio recogido por el medio Futurism. El mensaje, más que una predicción concreta, funciona como un aviso emocional: “lo estamos viendo venir y aun así lo negamos”.
Esa idea conecta con una sensación bastante extendida entre quienes trabajan cerca del desarrollo de modelos: cada salto de capacidad parece llegar antes de que terminemos de asimilar el anterior. La cuestión es que, cuando el aviso viene de alguien que lidera una de las empresas que empujan la ola, la metáfora deja de ser solo meteorología y pasa a ser política tecnológica. Continúa leyendo «Anthropic y el “tsunami” de la IA: qué hay detrás de la advertencia de Dario Amodei»
OpenAI firma con el Pentágono tras el choque con Anthropic: qué cambia para la IA en entornos clasificados
El 27 de febrero de 2026, OpenAI anunció un acuerdo con el Pentágono para llevar sus tecnologías de inteligencia artificial a sistemas clasificados. El anuncio llegó con un contexto muy concreto: pocas horas antes, el presidente Donald Trump había ordenado a las agencias federales dejar de usar la tecnología de Anthropic, rival directo de OpenAI. La secuencia importa porque no se trata solo de un contrato más; es un episodio que mezcla geopolítica, competencia empresarial y el debate sobre los límites de la IA cuando se cruza con la seguridad nacional. Según informó The New York Times, el pacto permite el uso “para cualquier propósito lícito”, una condición que el Departamento de Defensa exige en este tipo de contratos. Continúa leyendo «OpenAI firma con el Pentágono tras el choque con Anthropic: qué cambia para la IA en entornos clasificados»
Anthropic compra Vercept: la carrera por automatizar tareas con agentes de IA entra en fase de concentración
La compra de la startup Vercept por parte de Anthropic marca un paso más en la transición desde la IA conversacional hacia la automatización de tareas con agentes capaces de operar software real. Según informó Computerworld, Vercept —con sede en Seattle— venía trabajando en agentes en la nube que podían controlar un MacBook remoto, una idea que suena menos glamourosa que un gran modelo generativo, pero que toca un nervio sensible en las empresas: lograr que la IA no se quede en sugerencias, sino que ejecute acciones completas dentro de aplicaciones, como si fuera una mano digital sobre el teclado.
Para entenderlo con una metáfora cotidiana, muchos asistentes actuales se parecen a un copiloto que te dice por dónde ir; los agentes buscan ser el conductor que toma el volante, frena, aparca y te deja en destino. Eso cambia el tipo de valor que pueden ofrecer en entornos corporativos: menos “respuestas brillantes” y más “trabajo terminado”. Continúa leyendo «Anthropic compra Vercept: la carrera por automatizar tareas con agentes de IA entra en fase de concentración»