Claude Code incorpora modo voz: programar hablando ya es parte del flujo de trabajo

Programar suele parecerse a cocinar siguiendo una receta: vas leyendo, probando, corrigiendo y volviendo a probar. El teclado es la tabla de cortar y el ratón, el cucharón. Con la llegada del modo voz a Claude Code, Anthropic propone otra forma de moverse por la cocina: pedir acciones en voz alta mientras el asistente ejecuta los cambios. La idea es reducir fricción en tareas repetitivas y abrir un camino más “manos libres” para momentos en los que escribir no es lo más cómodo, como cuando estás revisando un diff, compartiendo pantalla o alternando entre varias ventanas.

Según contó el ingeniero Thariq Shihipar en X, el despliegue es gradual y, por ahora, alcanza a una fracción pequeña de la base de usuarios. La ambición es clara: convertir las interacciones con el asistente de programación en conversaciones más naturales, con menos interrupciones mecánicas. TechCrunch fue uno de los medios que adelantó la novedad y subrayó que se trata de un paso significativo hacia flujos de trabajo más conversacionales. Continúa leyendo «Claude Code incorpora modo voz: programar hablando ya es parte del flujo de trabajo»

Claude quiere que cambies de chatbot sin “empezar de cero”: así funciona su nueva importación de memoria

Cambiar de asistente de IA suele sentirse como mudarse de casa con prisas: tus cosas están, pero en cajas sin etiquetar. Lo que Anthropic propone con su nueva herramienta de importación de memoria para Claude es, básicamente, poner etiquetas a esas cajas. Según ha contado Engadget, la compañía ha creado un método para extraer los recuerdos y el contexto que otro chatbot ha acumulado sobre ti y convertirlo en un texto que luego puedes llevarte a Claude como punto de partida. La idea es que el asistente “te conozca” con cierta continuidad y no tengas que reexplicar tu manera de trabajar, tus preferencias o el tipo de respuestas que sueles pedir.

En la práctica, la memoria en un chatbot no es magia ni una “personalidad” real: es un conjunto de pistas, hábitos y datos resumidos. Cosas como “prefiere respuestas breves”, “está preparando una presentación” o “trabaja con estos temas”. Tenerlo en Claude desde el minuto uno puede marcar diferencia en tareas repetitivas, sobre todo si lo usas como herramienta de productividad. Continúa leyendo «Claude quiere que cambies de chatbot sin “empezar de cero”: así funciona su nueva importación de memoria»

Anthropic y el “tsunami” de la IA: qué hay detrás de la advertencia de Dario Amodei

La metáfora es potente porque apela a un miedo muy humano: ver algo enorme acercarse y no saber si todavía hay tiempo de moverse a terreno alto. El CEO de Anthropic, Dario Amodei, comparó la evolución de la inteligencia artificial con un “tsunami” en el horizonte y sugirió que la sociedad está minimizando señales que, a su juicio, ya son visibles. Lo dijo en una conversación con el inversor indio Nikhil Kamath en el pódcast “WTF Is”, en un episodio recogido por el medio Futurism. El mensaje, más que una predicción concreta, funciona como un aviso emocional: “lo estamos viendo venir y aun así lo negamos”.

Esa idea conecta con una sensación bastante extendida entre quienes trabajan cerca del desarrollo de modelos: cada salto de capacidad parece llegar antes de que terminemos de asimilar el anterior. La cuestión es que, cuando el aviso viene de alguien que lidera una de las empresas que empujan la ola, la metáfora deja de ser solo meteorología y pasa a ser política tecnológica. Continúa leyendo «Anthropic y el “tsunami” de la IA: qué hay detrás de la advertencia de Dario Amodei»

OpenAI firma con el Pentágono tras el choque con Anthropic: qué cambia para la IA en entornos clasificados

El 27 de febrero de 2026, OpenAI anunció un acuerdo con el Pentágono para llevar sus tecnologías de inteligencia artificial a sistemas clasificados. El anuncio llegó con un contexto muy concreto: pocas horas antes, el presidente Donald Trump había ordenado a las agencias federales dejar de usar la tecnología de Anthropic, rival directo de OpenAI. La secuencia importa porque no se trata solo de un contrato más; es un episodio que mezcla geopolítica, competencia empresarial y el debate sobre los límites de la IA cuando se cruza con la seguridad nacional. Según informó The New York Times, el pacto permite el uso “para cualquier propósito lícito”, una condición que el Departamento de Defensa exige en este tipo de contratos. Continúa leyendo «OpenAI firma con el Pentágono tras el choque con Anthropic: qué cambia para la IA en entornos clasificados»

Anthropic compra Vercept: la carrera por automatizar tareas con agentes de IA entra en fase de concentración

La compra de la startup Vercept por parte de Anthropic marca un paso más en la transición desde la IA conversacional hacia la automatización de tareas con agentes capaces de operar software real. Según informó Computerworld, Vercept —con sede en Seattle— venía trabajando en agentes en la nube que podían controlar un MacBook remoto, una idea que suena menos glamourosa que un gran modelo generativo, pero que toca un nervio sensible en las empresas: lograr que la IA no se quede en sugerencias, sino que ejecute acciones completas dentro de aplicaciones, como si fuera una mano digital sobre el teclado.

Para entenderlo con una metáfora cotidiana, muchos asistentes actuales se parecen a un copiloto que te dice por dónde ir; los agentes buscan ser el conductor que toma el volante, frena, aparca y te deja en destino. Eso cambia el tipo de valor que pueden ofrecer en entornos corporativos: menos “respuestas brillantes” y más “trabajo terminado”. Continúa leyendo «Anthropic compra Vercept: la carrera por automatizar tareas con agentes de IA entra en fase de concentración»

Cuando los VCs apuestan a dos caballos: OpenAI, Anthropic y la nueva normalidad del “doble ticket”

Durante años, en Silicon Valley se dio por hecho que un fondo de capital riesgo no podía estar “a favor” de dos rivales directos al mismo tiempo sin levantar cejas. La idea era sencilla: si un inversor te acompaña en el camino, te ayuda a ganar tu carrera, no a financiar al corredor del carril de al lado. Ese pacto tácito se está erosionando justo en el sector donde más dinero se está moviendo: los grandes laboratorios de IA.

Según publicó TechCrunch, OpenAI está cerca de cerrar una ronda de financiación gigantesca que rondaría los 100.000 millones de dólares, mientras Anthropic acaba de completar una operación de unos 30.000 millones. La cifra importa menos que el mensaje: cuando los cheques se vuelven de tamaño industrial, cambian las normas de convivencia entre fundadores e inversores. Continúa leyendo «Cuando los VCs apuestan a dos caballos: OpenAI, Anthropic y la nueva normalidad del “doble ticket”»

Cuando una IA intenta “copiar” a otra: la alerta de Anthropic sobre ataques de destilación contra Claude

En un comunicado fechado el 23 de febrero de 2026, Anthropic afirma haber detectado campañas “a escala industrial” para extraer capacidades de Claude, su familia de modelos de IA, mediante una técnica conocida como destilación. La compañía atribuye esas campañas a tres laboratorios: DeepSeek, Moonshot AI (conocida por sus modelos Kimi) y MiniMax. Según sus datos, el volumen habría sido enorme: más de 16 millones de intercambios con Claude generados a través de unas 24.000 cuentas fraudulentas, violando tanto los términos de servicio como restricciones regionales de acceso.

Lo relevante no es solo la cifra, sino el patrón: Anthropic describe un uso coordinado, repetitivo y orientado a capturar justo aquello que diferencia a sus modelos, como el razonamiento agentivo, el uso de herramientas y el código. En otras palabras, no se trataría de “usar” un modelo para tareas reales, sino de exprimirlo como si fuera una máquina de fabricar datos de entrenamiento. Continúa leyendo «Cuando una IA intenta “copiar” a otra: la alerta de Anthropic sobre ataques de destilación contra Claude»

Anthropic lleva Claude Code al móvil con Remote Control: el mando a distancia para tus sesiones de terminal

Durante su primer año, Claude Code se ha ido ganando un hueco curioso: lo usan desarrolladores de carrera, pero también gente sin perfil técnico que quiere “hablar” con un agente de IA para levantar una web o una app sin pelearse con un IDE. Esa forma de trabajar, conocida como vibe coding, se apoya en una idea simple: describir lo que quieres en lenguaje natural y dejar que el asistente escriba el código y ejecute tareas.

Hasta ahora, esa experiencia estaba anclada al escritorio: la app de Claude Code, la terminal o la integración con entornos de desarrollo. El anuncio de hoy mueve la palanca a otro sitio: Remote Control permite dar instrucciones a Claude Code desde el móvil, con iPhone y Android, mientras la sesión sigue corriendo en tu máquina local. La noticia la adelantó VentureBeat y el equipo de producto la comunicó también en X a través de Noah Zweben, responsable de producto de Claude Code. Continúa leyendo «Anthropic lleva Claude Code al móvil con Remote Control: el mando a distancia para tus sesiones de terminal»

El Pentágono cita al CEO de Anthropic por el pulso sobre los límites de la IA en sistemas clasificados

El Departamento de Defensa de Estados Unidos ha llamado a Washington al director ejecutivo de Anthropic, Dario Amodei, para una reunión en el Pentágono centrada en un asunto que suele quedar oculto tras la palabra “innovación”: quién decide, y con qué condiciones, cómo se usa la inteligencia artificial cuando entra en el territorio de lo clasificado. Según informó The New York Times, el encuentro está previsto para el martes y lo encabezará el secretario de Defensa, Pete Hegseth, en un contexto de presión explícita de la Administración Trump para que las empresas reduzcan restricciones en sus modelos.

La disputa no nace de cero. El año pasado, el Pentágono y Anthropic pactaron un contrato piloto de 200 millones de dólares. La relación parecía encaminada hasta que un memorando fechado el 9 de enero, firmado por Hegseth, pidió a las compañías de IA que eliminaran límites de uso. Ese texto forzó una renegociación, no tanto por la cifra económica como por el precedente: si el Gobierno quiere “caja negra” sin condiciones, o si las empresas pueden exigir reglas de seguridad vinculantes. Continúa leyendo «El Pentágono cita al CEO de Anthropic por el pulso sobre los límites de la IA en sistemas clasificados»

Claude Code Security: cuando la IA deja de “buscar patrones” y empieza a pensar como un investigador

Durante años, gran parte del análisis de vulnerabilidades ha funcionado como un perro rastreador: excelente siguiendo olores ya identificados, menos útil cuando el rastro es nuevo. Herramientas como CodeQL (y lo que se apoya en ella, incluido GitHub Advanced Security) son potentes detectando clases de fallos bien descritas: patrones de código, flujos de datos típicos, llamadas peligrosas y reglas que se van refinando con el tiempo. El giro que plantea Anthropic con Claude Code Security es otro: pasar de un enfoque “catálogo de reglas” a uno de análisis por razonamiento, donde el sistema intenta entender la intención del código, sus precondiciones y sus consecuencias, como lo haría un investigador humano.

Según lo publicado por VentureBeat, Anthropic tomó su modelo más avanzado, Claude Opus 4.6, lo puso frente a bases de código open source en producción y detectó más de 500 vulnerabilidades de alta severidad que habían sobrevivido décadas de revisión experta y millones de horas de fuzzing. Quince días después, esa capacidad se convirtió en producto: Claude Code Security, lanzado el 20 de febrero en una vista previa limitada para clientes Enterprise y Team.

La cifra impresiona, sí, pero lo realmente incómodo para los responsables de seguridad es la idea que subyace: si “apuntar” un modelo razonador a un repositorio puede destapar fallos profundos, un atacante con acceso a herramientas equivalentes podría recorrer esa misma ruta. La conversación que hoy se abre en comités y consejos no es solo “¿cuántas vulnerabilidades encontramos?”, sino “¿qué tipo de vulnerabilidades estamos dejando fuera por diseño?”. Continúa leyendo «Claude Code Security: cuando la IA deja de “buscar patrones” y empieza a pensar como un investigador»