Anthropic refuerza su presencia en Europa con oficinas en París y Múnich

La compañía de inteligencia artificial Anthropic ha confirmado la apertura de nuevas oficinas en París y Múnich, consolidando su expansión en Europa. Este movimiento llega tras recientes inauguraciones en ciudades estratégicas como Tokio, Seúl y Bengaluru, y se suma a los centros operativos que la empresa ya tiene en Londres, Dublín y Zúrich. Se trata de un paso que responde a un crecimiento notable en la región EMEA (Europa, Oriente Medio y África), donde el número de empleados se ha triplicado en el último año.

El impacto ha sido especialmente visible en el rendimiento económico: el ingreso recurrente anual (run-rate revenue) se ha multiplicado por nueve en este periodo, con un incremento de más de diez veces en el número de grandes cuentas corporativas, es decir, clientes que generan más de 100.000 dólares anuales. Continúa leyendo «Anthropic refuerza su presencia en Europa con oficinas en París y Múnich»

Anthropic y Cognizant unen fuerzas para llevar la IA generativa a escala corporativa

La empresa de inteligencia artificial Anthropic ha concretado un acuerdo clave con Cognizant, uno de los gigantes globales de la consultoría tecnológica. Esta alianza sitúa a Cognizant como uno de los tres principales clientes corporativos de Anthropic, y marca un paso decisivo en la adopción empresarial de modelos de IA generativa a gran escala.

El protagonista de esta implementación es Claude, el modelo de lenguaje desarrollado por Anthropic. En los próximos meses, Claude será desplegado entre los 350.000 empleados de Cognizant, una cifra que lo convierte en uno de los despliegues más ambiciosos de IA generativa en el mundo corporativo hasta la fecha. Continúa leyendo «Anthropic y Cognizant unen fuerzas para llevar la IA generativa a escala corporativa»

Anthropic acelera su modelo de negocio B2B y proyecta ingresos de $70.000 millones para 2028

Anthropic, una de las principales firmas en el desarrollo de inteligencia artificial, ha establecido proyecciones ambiciosas que apuntan a ingresos de hasta 70.000 millones de dólares para 2028 y un flujo de caja positivo de 17.000 millones, según información divulgada por The Information. Este crecimiento meteórico se apoya en una estrategia empresarial centrada en productos B2B, que ya está mostrando resultados significativos en 2025.

Durante este año, Anthropic estima cerrar con 3.800 millones de dólares en ingresos derivados de sus APIs, el doble de lo que OpenAI espera generar por este mismo canal. Parte de este éxito viene del rendimiento de su producto Claude Code, que ya roza los 1.000 millones en ingresos anuales, subiendo desde los 400 millones que registraba apenas en julio. Continúa leyendo «Anthropic acelera su modelo de negocio B2B y proyecta ingresos de $70.000 millones para 2028»

Anthropic pone a prueba la seguridad de Claude 4.5 Opus con un desafío inédito contra jailbreaks

Anthropic, la startup de inteligencia artificial con sede en San Francisco, está preparando el lanzamiento de su modelo Claude 4.5 Opus, el más avanzado de su familia Claude 4.5. Ya se han presentado dos variantes anteriores, Claude 4.5 Sonnet y Claude 4.5 Haiku, pero ahora todas las miradas apuntan al modelo que podría definir el futuro inmediato de esta tecnología. La razón: un enfoque intensivo en blindar la IA contra los llamados jailbreaks.

Claude 4.5 Opus, cuyo nombre en clave interno es Neptune V6, ha sido enviado recientemente a un grupo de expertos en seguridad conocidos como red-teamers. El objetivo no es otro que poner a prueba la capacidad del modelo para resistir manipulaciones externas, concretamente los intentos de hacer que la IA ignore sus propios filtros de seguridad. Continúa leyendo «Anthropic pone a prueba la seguridad de Claude 4.5 Opus con un desafío inédito contra jailbreaks»

Anthropic refuerza su alianza con Google para escalar Claude con millones de chips de IA

Anthropic, la empresa detrás del asistente de IA Claude, acaba de sellar un acuerdo multimillonario con Google que podría transformar significativamente su capacidad operativa. Esta alianza no se limita a una colaboración comercial habitual: implica acceso preferente a una cantidad sin precedentes de potencia de cómputo a través de los chips de inteligencia artificial de Google, conocidos como TPUs (Tensor Processing Units).

El acuerdo permitirá a Anthropic utilizar hasta un millón de TPUs en los próximos años, lo que se traduce en una potencia equivalente a más de un gigavatio de capacidad disponible a partir de 2026. Para poner esto en contexto, un gigavatio es suficiente para abastecer de electricidad a unas 350.000 viviendas, según la Administración de Información Energética de Estados Unidos. En el mundo de la inteligencia artificial, esta cifra representa una infraestructura colosal para entrenar y desplegar modelos avanzados como Claude. Continúa leyendo «Anthropic refuerza su alianza con Google para escalar Claude con millones de chips de IA»

Claude Code se expande al navegador: lo que necesitas saber sobre esta herramienta de IA para programadores

Claude Code, la herramienta de asistencia para programadores desarrollada por Anthropic, acaba de dar un paso importante en su evolución: ya no es necesario trabajar exclusivamente desde el terminal. Ahora, los usuarios pueden utilizar esta inteligencia artificial directamente desde el navegador, lo que representa una mejora significativa en cuanto a accesibilidad y comodidad para desarrolladores de distintos niveles.

Esta nueva opción forma parte de un programa de vista previa de investigación y está disponible inicialmente para quienes estén suscritos a los planes Claude Pro o Claude Max, que tienen un coste mensual de 20 a 200 dólares según el nivel de uso. Continúa leyendo «Claude Code se expande al navegador: lo que necesitas saber sobre esta herramienta de IA para programadores»

Anthropic y su filtro nuclear: la IA se enfrenta a sus propios límites de seguridad

Anthropic, empresa creadora del chatbot Claude, ha unido esfuerzos con el Departamento de Energía de Estados Unidos (DOE) y la Administración Nacional de Seguridad Nuclear (NNSA) para desarrollar un sistema que impida que su modelo de lenguaje sea utilizado con fines relacionados con la construcción de armas nucleares. La intención de este acuerdo es clara: evitar que la inteligencia artificial contribuya, de forma directa o indirecta, a la proliferación de tecnología nuclear con fines militares.

El trabajo conjunto entre Anthropic y la NNSA ha dado como resultado un clasificador nuclear, un filtro avanzado capaz de detectar conversaciones que se acercan peligrosamente a temas sensibles vinculados con armamento nuclear. Este clasificador fue desarrollado sobre una lista de indicadores de riesgo proporcionada por la NNSA, que incluye palabras clave, términos técnicos y contextos que podrían implicar un intento de obtener información peligrosa. Continúa leyendo «Anthropic y su filtro nuclear: la IA se enfrenta a sus propios límites de seguridad»

Haiku 4.5: el modelo pequeño de Anthropic que desafía a los grandes

En el universo de la inteligencia artificial, donde los grandes modelos de lenguaje dominan titulares por su capacidad para redactar textos, programar y resolver problemas complejos, los modelos pequeños suelen quedarse en la sombra. Sin embargo, Anthropic está cambiando esta narrativa con el lanzamiento de Haiku 4.5, una versión compacta que busca ofrecer velocidad, eficiencia y seguridad, sin sacrificar demasiada potencia.

Haiku 4.5 forma parte de la familia de modelos Claude, y llega como una alternativa gratuita, más rápida y más económica que el reputado Claude Sonnet 4. Este nuevo modelo ya está disponible para todos los usuarios de Claude.ai, sin necesidad de suscripción de pago, lo que lo convierte en una opción atractiva tanto para usuarios curiosos como para desarrolladores. Continúa leyendo «Haiku 4.5: el modelo pequeño de Anthropic que desafía a los grandes»

IBM integra Claude de Anthropic en su software empresarial: una alianza con impacto en el mundo corporativo

La alianza entre IBM y Anthropic marca un nuevo capítulo en la carrera por incorporar inteligencia artificial avanzada al entorno corporativo. En un movimiento estratégico, IBM anunció que integrará la familia de modelos Claude en varios de sus productos de software, comenzando por su entorno de desarrollo integrado (IDE). Este paso representa una decisión con implicaciones profundas, ya que IBM apuesta por uno de los modelos lingüísticos más valorados por las empresas, según estudios recientes.

El entorno de desarrollo de IBM, disponible actualmente para un grupo limitado de clientes, será el primer escenario donde se pondrán a prueba las capacidades de Claude dentro del ecosistema IBM. Esta integración busca no solo agilizar el trabajo de los desarrolladores, sino también servir como puerta de entrada a una transformación más amplia en la manera en que las empresas interactúan con sus herramientas digitales. Continúa leyendo «IBM integra Claude de Anthropic en su software empresarial: una alianza con impacto en el mundo corporativo»

La amenaza silenciosa que puede alterar los modelos de IA con solo 250 documentos

En el entrenamiento de los modelos de lenguaje grande (LLMs), se tiende a pensar que la calidad y la cantidad masiva de datos son garantes de seguridad. Pero un reciente estudio de Anthropic, en colaboración con el UK AI Safety Institute y el Alan Turing Institute, ha puesto esta idea patas arriba. La investigación ha demostrado que no hace falta contaminar grandes cantidades de datos para comprometer un modelo: basta con apenas 250 documentos maliciosos para insertar una puerta trasera o «backdoor» funcional en modelos de hasta 13.000 millones de parámetros.

Esto no es una simple advertencia teórica. La investigación señala que incluso los modelos entrenados con datasets optimizados y gigantescos, como los basados en el enfoque Chinchilla-optimal, son vulnerables si se introduce un pequeño conjunto de entradas cuidadosamente diseñadas. Es como si una sola gota de tinta bastara para enturbiar un balde entero de agua. Continúa leyendo «La amenaza silenciosa que puede alterar los modelos de IA con solo 250 documentos»