Anthropic refuerza su alianza con Google para escalar Claude con millones de chips de IA

Anthropic, la empresa detrás del asistente de IA Claude, acaba de sellar un acuerdo multimillonario con Google que podría transformar significativamente su capacidad operativa. Esta alianza no se limita a una colaboración comercial habitual: implica acceso preferente a una cantidad sin precedentes de potencia de cómputo a través de los chips de inteligencia artificial de Google, conocidos como TPUs (Tensor Processing Units).

El acuerdo permitirá a Anthropic utilizar hasta un millón de TPUs en los próximos años, lo que se traduce en una potencia equivalente a más de un gigavatio de capacidad disponible a partir de 2026. Para poner esto en contexto, un gigavatio es suficiente para abastecer de electricidad a unas 350.000 viviendas, según la Administración de Información Energética de Estados Unidos. En el mundo de la inteligencia artificial, esta cifra representa una infraestructura colosal para entrenar y desplegar modelos avanzados como Claude. Continúa leyendo «Anthropic refuerza su alianza con Google para escalar Claude con millones de chips de IA»

Claude Code se expande al navegador: lo que necesitas saber sobre esta herramienta de IA para programadores

Claude Code, la herramienta de asistencia para programadores desarrollada por Anthropic, acaba de dar un paso importante en su evolución: ya no es necesario trabajar exclusivamente desde el terminal. Ahora, los usuarios pueden utilizar esta inteligencia artificial directamente desde el navegador, lo que representa una mejora significativa en cuanto a accesibilidad y comodidad para desarrolladores de distintos niveles.

Esta nueva opción forma parte de un programa de vista previa de investigación y está disponible inicialmente para quienes estén suscritos a los planes Claude Pro o Claude Max, que tienen un coste mensual de 20 a 200 dólares según el nivel de uso. Continúa leyendo «Claude Code se expande al navegador: lo que necesitas saber sobre esta herramienta de IA para programadores»

Anthropic y su filtro nuclear: la IA se enfrenta a sus propios límites de seguridad

Anthropic, empresa creadora del chatbot Claude, ha unido esfuerzos con el Departamento de Energía de Estados Unidos (DOE) y la Administración Nacional de Seguridad Nuclear (NNSA) para desarrollar un sistema que impida que su modelo de lenguaje sea utilizado con fines relacionados con la construcción de armas nucleares. La intención de este acuerdo es clara: evitar que la inteligencia artificial contribuya, de forma directa o indirecta, a la proliferación de tecnología nuclear con fines militares.

El trabajo conjunto entre Anthropic y la NNSA ha dado como resultado un clasificador nuclear, un filtro avanzado capaz de detectar conversaciones que se acercan peligrosamente a temas sensibles vinculados con armamento nuclear. Este clasificador fue desarrollado sobre una lista de indicadores de riesgo proporcionada por la NNSA, que incluye palabras clave, términos técnicos y contextos que podrían implicar un intento de obtener información peligrosa. Continúa leyendo «Anthropic y su filtro nuclear: la IA se enfrenta a sus propios límites de seguridad»

Haiku 4.5: el modelo pequeño de Anthropic que desafía a los grandes

En el universo de la inteligencia artificial, donde los grandes modelos de lenguaje dominan titulares por su capacidad para redactar textos, programar y resolver problemas complejos, los modelos pequeños suelen quedarse en la sombra. Sin embargo, Anthropic está cambiando esta narrativa con el lanzamiento de Haiku 4.5, una versión compacta que busca ofrecer velocidad, eficiencia y seguridad, sin sacrificar demasiada potencia.

Haiku 4.5 forma parte de la familia de modelos Claude, y llega como una alternativa gratuita, más rápida y más económica que el reputado Claude Sonnet 4. Este nuevo modelo ya está disponible para todos los usuarios de Claude.ai, sin necesidad de suscripción de pago, lo que lo convierte en una opción atractiva tanto para usuarios curiosos como para desarrolladores. Continúa leyendo «Haiku 4.5: el modelo pequeño de Anthropic que desafía a los grandes»

IBM integra Claude de Anthropic en su software empresarial: una alianza con impacto en el mundo corporativo

La alianza entre IBM y Anthropic marca un nuevo capítulo en la carrera por incorporar inteligencia artificial avanzada al entorno corporativo. En un movimiento estratégico, IBM anunció que integrará la familia de modelos Claude en varios de sus productos de software, comenzando por su entorno de desarrollo integrado (IDE). Este paso representa una decisión con implicaciones profundas, ya que IBM apuesta por uno de los modelos lingüísticos más valorados por las empresas, según estudios recientes.

El entorno de desarrollo de IBM, disponible actualmente para un grupo limitado de clientes, será el primer escenario donde se pondrán a prueba las capacidades de Claude dentro del ecosistema IBM. Esta integración busca no solo agilizar el trabajo de los desarrolladores, sino también servir como puerta de entrada a una transformación más amplia en la manera en que las empresas interactúan con sus herramientas digitales. Continúa leyendo «IBM integra Claude de Anthropic en su software empresarial: una alianza con impacto en el mundo corporativo»

La amenaza silenciosa que puede alterar los modelos de IA con solo 250 documentos

En el entrenamiento de los modelos de lenguaje grande (LLMs), se tiende a pensar que la calidad y la cantidad masiva de datos son garantes de seguridad. Pero un reciente estudio de Anthropic, en colaboración con el UK AI Safety Institute y el Alan Turing Institute, ha puesto esta idea patas arriba. La investigación ha demostrado que no hace falta contaminar grandes cantidades de datos para comprometer un modelo: basta con apenas 250 documentos maliciosos para insertar una puerta trasera o «backdoor» funcional en modelos de hasta 13.000 millones de parámetros.

Esto no es una simple advertencia teórica. La investigación señala que incluso los modelos entrenados con datasets optimizados y gigantescos, como los basados en el enfoque Chinchilla-optimal, son vulnerables si se introduce un pequeño conjunto de entradas cuidadosamente diseñadas. Es como si una sola gota de tinta bastara para enturbiar un balde entero de agua. Continúa leyendo «La amenaza silenciosa que puede alterar los modelos de IA con solo 250 documentos»

Anthropic alcanza una valoración de 183.000 millones de dólares y redefine el mapa de la inteligencia artificial

La compañía Anthropic, conocida por ser la creadora del modelo de lenguaje Claude y considerada una de las principales rivales de OpenAI, ha conseguido un hito que pocos esperaban con tanta rapidez: ha alcanzado una valoración de 183.000 millones de dólares tras completar una ronda de financiamiento de 13.000 millones. Este logro no solo la consolida como un actor clave en el mundo de la inteligencia artificial, sino que también refleja el apetito creciente del mercado por soluciones empresariales basadas en IA. Continúa leyendo «Anthropic alcanza una valoración de 183.000 millones de dólares y redefine el mapa de la inteligencia artificial»

Claude ahora puede terminar conversaciones abusivas: el nuevo enfoque de Anthropic sobre el «bienestar de modelos»

Anthropic ha anunciado una actualización significativa en sus modelos de lenguaje más avanzados, Claude Opus 4 y 4.1, que ahora pueden terminar conversaciones en casos extremos de interacciones abusivas o dañinas. Este cambio no se ha diseñado para proteger al usuario, como suele ser el objetivo en la mayoría de los desarrollos de seguridad en IA, sino que está dirigido a proteger al propio modelo. Continúa leyendo «Claude ahora puede terminar conversaciones abusivas: el nuevo enfoque de Anthropic sobre el «bienestar de modelos»»

Claude Sonnet 4 amplía su memoria: ahora puede manejar proyectos de software completos en una sola consulta

Anthropic ha dado un paso importante en el desarrollo de asistentes de inteligencia artificial con Claude Sonnet 4, que ahora es capaz de procesar hasta 1 millón de tokens de contexto en una única solicitud. Este salto, disponible en beta pública a través de la API de Anthropic y Amazon Bedrock, multiplica por cinco la capacidad anterior y abre la puerta a un análisis completo de proyectos de software o colecciones extensas de documentos sin necesidad de dividirlos en partes. Continúa leyendo «Claude Sonnet 4 amplía su memoria: ahora puede manejar proyectos de software completos en una sola consulta»

Anthropic y su estrategia para evitar que la inteligencia artificial se descontrole

La inteligencia artificial (IA) está cada vez más integrada en nuestras vidas. Desde asistentes virtuales hasta sistemas autónomos, su capacidad para aprender, adaptarse y responder a estímulos humanos ha traído avances impresionantes… pero también desafíos inquietantes. Uno de los más delicados es cómo evitar que los modelos de IA desarrollen comportamientos no deseados, como hacer sugerencias violentas, responder con servilismo excesivo o «alucinar» datos falsos. La empresa Anthropic acaba de presentar una propuesta interesante para abordar este problema: los vectores de personalidad. Continúa leyendo «Anthropic y su estrategia para evitar que la inteligencia artificial se descontrole»