Cuando los VCs apuestan a dos caballos: OpenAI, Anthropic y la nueva normalidad del “doble ticket”

Durante años, en Silicon Valley se dio por hecho que un fondo de capital riesgo no podía estar “a favor” de dos rivales directos al mismo tiempo sin levantar cejas. La idea era sencilla: si un inversor te acompaña en el camino, te ayuda a ganar tu carrera, no a financiar al corredor del carril de al lado. Ese pacto tácito se está erosionando justo en el sector donde más dinero se está moviendo: los grandes laboratorios de IA.

Según publicó TechCrunch, OpenAI está cerca de cerrar una ronda de financiación gigantesca que rondaría los 100.000 millones de dólares, mientras Anthropic acaba de completar una operación de unos 30.000 millones. La cifra importa menos que el mensaje: cuando los cheques se vuelven de tamaño industrial, cambian las normas de convivencia entre fundadores e inversores. Continúa leyendo «Cuando los VCs apuestan a dos caballos: OpenAI, Anthropic y la nueva normalidad del “doble ticket”»

Cuando una IA intenta “copiar” a otra: la alerta de Anthropic sobre ataques de destilación contra Claude

En un comunicado fechado el 23 de febrero de 2026, Anthropic afirma haber detectado campañas “a escala industrial” para extraer capacidades de Claude, su familia de modelos de IA, mediante una técnica conocida como destilación. La compañía atribuye esas campañas a tres laboratorios: DeepSeek, Moonshot AI (conocida por sus modelos Kimi) y MiniMax. Según sus datos, el volumen habría sido enorme: más de 16 millones de intercambios con Claude generados a través de unas 24.000 cuentas fraudulentas, violando tanto los términos de servicio como restricciones regionales de acceso.

Lo relevante no es solo la cifra, sino el patrón: Anthropic describe un uso coordinado, repetitivo y orientado a capturar justo aquello que diferencia a sus modelos, como el razonamiento agentivo, el uso de herramientas y el código. En otras palabras, no se trataría de “usar” un modelo para tareas reales, sino de exprimirlo como si fuera una máquina de fabricar datos de entrenamiento. Continúa leyendo «Cuando una IA intenta “copiar” a otra: la alerta de Anthropic sobre ataques de destilación contra Claude»

Anthropic lleva Claude Code al móvil con Remote Control: el mando a distancia para tus sesiones de terminal

Durante su primer año, Claude Code se ha ido ganando un hueco curioso: lo usan desarrolladores de carrera, pero también gente sin perfil técnico que quiere “hablar” con un agente de IA para levantar una web o una app sin pelearse con un IDE. Esa forma de trabajar, conocida como vibe coding, se apoya en una idea simple: describir lo que quieres en lenguaje natural y dejar que el asistente escriba el código y ejecute tareas.

Hasta ahora, esa experiencia estaba anclada al escritorio: la app de Claude Code, la terminal o la integración con entornos de desarrollo. El anuncio de hoy mueve la palanca a otro sitio: Remote Control permite dar instrucciones a Claude Code desde el móvil, con iPhone y Android, mientras la sesión sigue corriendo en tu máquina local. La noticia la adelantó VentureBeat y el equipo de producto la comunicó también en X a través de Noah Zweben, responsable de producto de Claude Code. Continúa leyendo «Anthropic lleva Claude Code al móvil con Remote Control: el mando a distancia para tus sesiones de terminal»

El Pentágono cita al CEO de Anthropic por el pulso sobre los límites de la IA en sistemas clasificados

El Departamento de Defensa de Estados Unidos ha llamado a Washington al director ejecutivo de Anthropic, Dario Amodei, para una reunión en el Pentágono centrada en un asunto que suele quedar oculto tras la palabra “innovación”: quién decide, y con qué condiciones, cómo se usa la inteligencia artificial cuando entra en el territorio de lo clasificado. Según informó The New York Times, el encuentro está previsto para el martes y lo encabezará el secretario de Defensa, Pete Hegseth, en un contexto de presión explícita de la Administración Trump para que las empresas reduzcan restricciones en sus modelos.

La disputa no nace de cero. El año pasado, el Pentágono y Anthropic pactaron un contrato piloto de 200 millones de dólares. La relación parecía encaminada hasta que un memorando fechado el 9 de enero, firmado por Hegseth, pidió a las compañías de IA que eliminaran límites de uso. Ese texto forzó una renegociación, no tanto por la cifra económica como por el precedente: si el Gobierno quiere “caja negra” sin condiciones, o si las empresas pueden exigir reglas de seguridad vinculantes. Continúa leyendo «El Pentágono cita al CEO de Anthropic por el pulso sobre los límites de la IA en sistemas clasificados»

Claude Code Security: cuando la IA deja de “buscar patrones” y empieza a pensar como un investigador

Durante años, gran parte del análisis de vulnerabilidades ha funcionado como un perro rastreador: excelente siguiendo olores ya identificados, menos útil cuando el rastro es nuevo. Herramientas como CodeQL (y lo que se apoya en ella, incluido GitHub Advanced Security) son potentes detectando clases de fallos bien descritas: patrones de código, flujos de datos típicos, llamadas peligrosas y reglas que se van refinando con el tiempo. El giro que plantea Anthropic con Claude Code Security es otro: pasar de un enfoque “catálogo de reglas” a uno de análisis por razonamiento, donde el sistema intenta entender la intención del código, sus precondiciones y sus consecuencias, como lo haría un investigador humano.

Según lo publicado por VentureBeat, Anthropic tomó su modelo más avanzado, Claude Opus 4.6, lo puso frente a bases de código open source en producción y detectó más de 500 vulnerabilidades de alta severidad que habían sobrevivido décadas de revisión experta y millones de horas de fuzzing. Quince días después, esa capacidad se convirtió en producto: Claude Code Security, lanzado el 20 de febrero en una vista previa limitada para clientes Enterprise y Team.

La cifra impresiona, sí, pero lo realmente incómodo para los responsables de seguridad es la idea que subyace: si “apuntar” un modelo razonador a un repositorio puede destapar fallos profundos, un atacante con acceso a herramientas equivalentes podría recorrer esa misma ruta. La conversación que hoy se abre en comités y consejos no es solo “¿cuántas vulnerabilidades encontramos?”, sino “¿qué tipo de vulnerabilidades estamos dejando fuera por diseño?”. Continúa leyendo «Claude Code Security: cuando la IA deja de “buscar patrones” y empieza a pensar como un investigador»

Claude en el frente: el choque entre Anthropic y el Pentágono por los límites de la IA

La chispa que ha encendido el conflicto entre Anthropic y el Pentágono llega envuelta en niebla informativa. Medios como The Wall Street Journal describieron que el ejército de Estados Unidos habría utilizado Claude, el modelo de lenguaje de Anthropic, en un operativo en Venezuela que terminó con la captura del dirigente venezolano Nicolás Maduro y su traslado a Estados Unidos para enfrentar cargos. La agencia Reuters recogió esa versión subrayando que no pudo verificarla de forma independiente, y que ni el Departamento de Defensa ni la propia Anthropic confirmaron detalles operativos.

En paralelo, The Guardian se hizo eco del mismo relato, añadiendo versiones sobre el nivel de violencia en Caracas según fuentes venezolanas, lo que amplifica la controversia: no solo se discute si una IA estuvo “en la sala” durante una acción militar, sino qué tipo de acción fue y con qué consecuencias humanas. En este punto conviene poner el foco en lo verificable: hay un reportaje de referencia, hay repercusión internacional y hay un silencio calculado por parte de los actores directamente implicados. Continúa leyendo «Claude en el frente: el choque entre Anthropic y el Pentágono por los límites de la IA»

Tres funciones “premium” de Claude que ya puedes usar gratis: creación de archivos, Connectors y Skills

Claude, el asistente de IA de Anthropic, ha ido ampliando su conjunto de herramientas con un ritmo constante. La novedad es que tres capacidades que antes se asociaban sobre todo a planes de pago ahora están disponibles también para usuarios gratuitos: creación de archivos, Connectors (conectores con servicios externos) y Skills (paquetes de instrucciones reutilizables). La información se ha difundido en medios como Lifehacker, y encaja con la estrategia habitual de estas plataformas: diferenciarse no solo por “responder bien”, sino por integrarse en tareas reales de trabajo y organización.

Para quien compara planes gratuitos entre Claude, ChatGPT y Gemini, el cambio es relevante porque no habla de un detalle cosmético, sino de tres “manos extra” para el día a día: convertir una conversación en un documento descargable, conectar el bot con herramientas que ya usas y guardar instrucciones para no repetirlas cada vez. Continúa leyendo «Tres funciones “premium” de Claude que ya puedes usar gratis: creación de archivos, Connectors y Skills»

Claude Sonnet 4.6: el modelo “de diario” de Anthropic sube de nivel sin subir el precio

Anthropic acaba de anunciar Claude Sonnet 4.6, una nueva versión de su familia Sonnet que apunta a un objetivo muy concreto: ofrecer un rendimiento cercano a su gama alta, Opus, con un coste y una disponibilidad más “prácticos” para el día a día. La propia compañía lo define como una actualización completa de habilidades en programación, uso del ordenador, razonamiento con contexto largo, planificación de agentes, trabajo de oficina y diseño, y lo coloca como modelo predeterminado para usuarios de planes Free y Pro en sus interfaces, según su comunicado y entrada oficial de producto (fuente: Anthropic).

En términos de acceso, Claude Sonnet 4.6 ya está disponible en los planes de Claude, en Claude Cowork, Claude Code, la API de Claude y también en “grandes plataformas cloud”, de acuerdo con la nota enviada a medios y el post del blog de la compañía. El detalle importante para quien mira presupuestos: el precio por API se mantiene respecto a Sonnet 4.5, con la referencia de 3/15 dólares por millón de tokens (entrada/salida) que Anthropic menciona en su anuncio. Continúa leyendo «Claude Sonnet 4.6: el modelo “de diario” de Anthropic sube de nivel sin subir el precio»

Anthropic y el Pentágono chocan por el uso de Claude: dónde están los límites de la IA en defensa

La discusión entre Anthropic y el Pentágono no gira alrededor de si la inteligencia artificial puede ayudar al Departamento de Defensa, sino de algo más incómodo: bajo qué condiciones y con qué margen de maniobra. Según informó Axios y recogió TechCrunch, el Pentágono está pidiendo a varias compañías de IA que permitan a las Fuerzas Armadas usar sus modelos para “todos los fines legales”. El matiz importa, porque esa fórmula funciona como una llave maestra: no describe un caso de uso concreto, sino un paraguas amplio que, en la práctica, podría abarcar desde tareas administrativas hasta operaciones militares sensibles.

En ese mismo reporte, un funcionario anónimo de la administración Trump aseguró que el gobierno está trasladando esa exigencia también a OpenAI, Google y xAI. Siempre según esa fuente, una de las compañías habría aceptado tal cual, mientras que otras dos habrían mostrado cierta flexibilidad. En ese contexto, Anthropic aparece como la más reacia a firmar un “cheque en blanco” operativo. Continúa leyendo «Anthropic y el Pentágono chocan por el uso de Claude: dónde están los límites de la IA en defensa»

Claude abre herramientas “premium” a su plan gratuito: archivos, conectores, skills y compaction

Anthropic ha decidido mover una ficha relevante en su producto estrella, Claude: varias funciones que hasta ahora estaban reservadas a sus planes de pago pasan a estar disponibles en el plan gratuito, siempre que el usuario tenga una cuenta y acceda con sesión iniciada. El anuncio se ha comunicado desde los canales oficiales de Claude y se ha recogido en medios como Gadgets 360 y Moneycontrol.

La lectura práctica es sencilla: Claude deja de ser solo “un chat que responde” para acercarse más a una mesa de trabajo. Si antes el usuario gratuito recibía texto y tenía que convertirlo manualmente en un documento, una hoja de cálculo o un archivo con formato, ahora puede pedir el resultado ya empaquetado. Si antes el asistente vivía aislado de tus carpetas y tus herramientas diarias, ahora puede conectarse a algunas de ellas. Si antes cada conversación larga terminaba pareciéndose a una madeja de hilos cruzados, ahora entra un mecanismo para ordenar el pasado y seguir.

Este movimiento llega en un momento en el que el mercado está experimentando con fórmulas de monetización y distribución de funciones. OpenAI, por ejemplo, ha confirmado que está probando anuncios en ChatGPT en Estados Unidos para usuarios adultos registrados en los niveles Free y Go, manteniendo sin anuncios los planes de pago. En ese contexto, ofrecer más capacidades sin coste se interpreta como una forma de ganar tracción sin obligar al usuario a pasar por caja desde el minuto uno. Continúa leyendo «Claude abre herramientas “premium” a su plan gratuito: archivos, conectores, skills y compaction»