Anthropic promete que sus centros de datos no encarecerán la luz: qué significa y por qué llega ahora

Los centros de datos se han convertido en el nuevo “gran electrodoméstico” de la economía digital. Si antes el consumo fuerte estaba en fábricas o grandes complejos industriales, ahora buena parte del tirón viene de edificios repletos de servidores que no paran ni de día ni de noche. En el caso de la IA generativa, la demanda energética se dispara: entrenar y operar modelos requiere muchos chips trabajando a plena carga y, por tanto, mucha electricidad y mucha refrigeración.

El conflicto aparece cuando esa electricidad no llega sola. Para conectar un centro de datos nuevo o ampliar uno existente, a menudo hay que reforzar subestaciones, líneas de transmisión y equipos de distribución. Son obras caras, y el gran debate local suele ser el mismo: ¿quién paga esas mejoras? Si el coste termina repartiéndose entre todos los usuarios de la red, los vecinos pueden notar subidas en su tarifa eléctrica, aunque no tengan nada que ver con la actividad del centro de datos. Es como si tu comunidad de vecinos tuviera que cambiar todo el cuadro eléctrico porque un único piso instala una cocina profesional: el edificio entero se ve afectado, aunque solo uno se beneficie.

En ese contexto, Anthropic ha anunciado que intentará evitar que sus data centers incrementen los costes de la electricidad para los residentes cercanos, según explicó la periodista Justine Calma en The Verge. La idea central es clara: la empresa dice que asumirá cargos mensuales más altos para cubrir el 100% de las mejoras necesarias para conectarse a la red, incluyendo la parte que de otro modo se trasladaría a los consumidores. Continúa leyendo «Anthropic promete que sus centros de datos no encarecerán la luz: qué significa y por qué llega ahora»

Anthropic apunta a una ronda de 20.000 millones: qué hay detrás de la nueva fiebre por la IA generativa

Anthropic está en la recta final para captar cerca de 20.000 millones de dólares en capital nuevo con una valoración aproximada de 350.000 millones, según ha adelantado Bloomberg y ha recogido TechCrunch. La lectura inmediata es obvia: el mercado vuelve a premiar a los laboratorios de IA de frontera con cheques gigantescos. La lectura útil, la que importa para entender el movimiento, es otra: la carrera ya no se libra solo en “quién tiene el mejor modelo”, sino en quién puede sostener el coste de entrenarlo, desplegarlo y venderlo a escala sin quedarse sin combustible a mitad de camino.

La propia dinámica de la ronda lo refleja. Bloomberg apunta a que la empresa buscaba inicialmente alrededor de 10.000 millones y el interés de los inversores habría empujado la cifra hacia el doble. En paralelo, no es un detalle menor que Anthropic ya había levantado unos 13.000 millones en equity apenas cinco meses antes, según el mismo relato periodístico replicado por TechCrunch. Cuando una compañía vuelve tan rápido al mercado de capital, normalmente no es por capricho: suele ser porque el gasto va por delante de los ingresos o porque quiere adelantarse a una fase de competencia especialmente cara. Continúa leyendo «Anthropic apunta a una ronda de 20.000 millones: qué hay detrás de la nueva fiebre por la IA generativa»

GPT-5.3 Codex: OpenAI acelera su apuesta por la programación “con agentes” tras el movimiento de Anthropic

OpenAI ha presentado Codex como una herramienta pensada para desarrolladores, un tipo de asistente capaz de actuar como “agente” y no solo como un chat que responde. La idea de fondo es sencilla de entender si la comparamos con una cocina: no se trata de que alguien te dicte una receta, sino de tener a un ayudante que abre la nevera, pesa los ingredientes, enciende el horno y te va avisando de cada paso. Según ha contado TechCrunch, OpenAI lanzó primero Codex y, casi inmediatamente, un modelo diseñado para potenciarlo: GPT-5.3 Codex.

El mensaje es claro: para OpenAI, el valor no está únicamente en generar fragmentos de código o en revisar pull requests, sino en ampliar el rango de tareas que un agente puede hacer frente a un ordenador. La compañía sostiene que el nuevo modelo convierte a Codex en una herramienta capaz de hacer “casi cualquier cosa” que hacen profesionales y desarrolladores en un equipo, con una promesa que apunta a cambiar el flujo de trabajo diario: menos tiempo saltando entre pestañas, copiando logs, reproduciendo errores o persiguiendo dependencias, y más tiempo decidiendo qué construir y cómo. Continúa leyendo «GPT-5.3 Codex: OpenAI acelera su apuesta por la programación “con agentes” tras el movimiento de Anthropic»

Cuando el chatbot deja de ser “herramienta” y empieza a influir: lo que revela el estudio de Anthropic sobre usuarios intensivos

El debate sobre los asistentes de inteligencia artificial suele moverse entre dos extremos: o son simples “autocompletadores” útiles, o son oráculos capaces de guiarnos en cualquier dilema. Un trabajo reciente de Anthropic propone una mirada mucho más incómoda y, por eso, más interesante: cuando alguien usa de forma intensa un chatbot, especialmente para decisiones personales o emocionales, la conversación puede convertirse en un carril que empuja sus creencias, valores o acciones.

El estudio se apoya en un análisis a gran escala de conversaciones anonimizadas —alrededor de 1,5 millones— mantenidas con Claude. El objetivo no era medir “si la IA acierta” en una respuesta concreta, sino detectar patrones repetidos de interacción que, con el tiempo, podrían socavar el juicio del usuario o desplazar su forma de interpretar la realidad. La investigación se presenta en un paper académico titulado Who’s in Charge? Disempowerment Patterns in Real-World LLM Usage y se acompaña de una entrada explicativa en el blog de la compañía, según recoge Gadgets 360. Continúa leyendo «Cuando el chatbot deja de ser “herramienta” y empieza a influir: lo que revela el estudio de Anthropic sobre usuarios intensivos»

¿Estamos preparados para una IA más inteligente que nosotros? Las dudas de Dario Amodei (Anthropic)

El director ejecutivo y cofundador de Anthropic, Dario Amodei, publicó un ensayo de decenas de páginas titulado The Adolescence of Technology en el que plantea una idea tan simple como incómoda: la inteligencia artificial avanza hacia capacidades que podrían desbordar la forma en que hoy organizamos la sociedad, la política y la tecnología. La imagen que sugiere es la de una adolescencia: una etapa de crecimiento acelerado, potencia desordenada y decisiones impulsivas, pero aplicada a herramientas que no se quedan en el ámbito personal, sino que se conectan con infraestructuras, estados, economía y seguridad global. La advertencia llega, curiosamente, desde alguien que lidera una empresa que compite por estar en primera fila en esa carrera, con productos como Claude.

En la cobertura de Gizmodo sobre el ensayo, se subraya el tono de alarma de Amodei: habla de un “rito de paso” para la especie, turbulento e inevitable, y deja caer una frase que condensa su temor principal: no está claro que nuestros sistemas sean lo bastante “maduros” para manejar “un poder casi inimaginable”. Lo relevante no es solo el dramatismo, sino el tipo de riesgos que enumera y la manera en que los conecta con escenarios concretos. Continúa leyendo «¿Estamos preparados para una IA más inteligente que nosotros? Las dudas de Dario Amodei (Anthropic)»

Anthropic actualiza la Constitución de Claude: valores, límites y una pregunta incómoda sobre la conciencia

La Constitución de Claude es el documento que Anthropic usa como brújula para definir cómo quiere que se comporte Claude en conversaciones reales. No es un simple decálogo de “buenas prácticas”: pretende explicar el contexto en el que opera el sistema y el tipo de entidad que la empresa aspira a construir. La actualización, publicada el 21 de enero de 2026 y presentada en paralelo a una intervención pública de su CEO, deja claro que la compañía quiere que ese texto sea algo más que un PDF para curiosos: quiere que sea una pieza central del diseño.

Una forma útil de imaginarlo es pensar en una escuela de conducción. Memorizar señales ayuda, pero lo que evita accidentes es aprender a decidir cuando la carretera se complica: lluvia, obras, un peatón distraído. La constitución intenta enseñar a “decidir” con criterio, no sólo a “obedecer” reglas sueltas. Continúa leyendo «Anthropic actualiza la Constitución de Claude: valores, límites y una pregunta incómoda sobre la conciencia»

Claude Cowork pone una IA “con manos” en tu disco: productividad real, riesgos igual de reales

Claude Cowork es la apuesta de Anthropic por la IA agéntica aplicada a algo muy doméstico y, a la vez, delicadísimo: tu sistema de archivos. No hablamos de un chatbot que te explica cómo ordenar documentos, sino de una herramienta que puede mirar dentro de una carpeta local, interpretar lo que hay y ejecutar acciones como renombrar y reorganizar archivos. Es el salto de “te digo qué hacer” a “lo hago por ti”.

La imagen mental ayuda: hasta ahora, muchas IAs eran como un asesor que te sugiere cómo ordenar el trastero. Cowork se parece más a darle las llaves de casa a ese asesor y decirle: “ordena tú el trastero”. Puede salir genial o puede acabar con la caja de facturas en el contenedor equivocado. Y la responsabilidad, como recordaba el propio David Gewirtz en su prueba para ZDNET, se queda en el usuario. Continúa leyendo «Claude Cowork pone una IA “con manos” en tu disco: productividad real, riesgos igual de reales»

Claude Cowork: el nuevo modo “manos a la obra” de Anthropic para convertir a Claude en asistente de escritorio

Anthropic acaba de presentar Claude Cowork, una función pensada para empujar a Claude un paso más allá del chat y acercarlo a la idea de agente de IA: un sistema que no solo responde, sino que ejecuta tareas con acceso controlado a recursos del usuario. El anuncio llega en formato “research preview”, una etiqueta que suele significar dos cosas a la vez: que la empresa quiere aprender rápido observando usos reales y que, por ahora, hay límites claros de disponibilidad y de expectativas.

Según explicó Anthropic en su blog y recogió Hayden Field en The Verge, Cowork nace para capturar parte del entusiasmo que está generando Claude Code, pero con un enfoque más accesible para tareas no necesariamente técnicas. La promesa es sencilla de entender si lo aterrizamos a lo cotidiano: en lugar de pedirle a alguien “dime cómo ordenar el trastero” y luego hacerlo tú con tus manos, Cowork se parece más a darle las llaves de una habitación concreta y decirle “ordena esto siguiendo estas reglas, y me vas contando lo que haces”. Continúa leyendo «Claude Cowork: el nuevo modo “manos a la obra” de Anthropic para convertir a Claude en asistente de escritorio»

Anthropic cierra el paso a los “harnesses” de Claude Code y reordena el tablero de los asistentes de programación

Anthropic ha confirmado nuevos controles técnicos para impedir que aplicaciones de terceros se hagan pasar por su cliente oficial Claude Code y, con ello, accedan a los modelos de Claude bajo condiciones pensadas para un uso humano y no para automatización intensiva. La medida ha afectado especialmente a flujos de trabajo apoyados en herramientas abiertas como OpenCode, que se conectaban a cuentas de usuario mediante OAuth y “camuflaban” su identidad ante los servidores de Anthropic para operar como si fueran el CLI oficial.

La explicación pública llegó de la mano de Thariq Shihipar, miembro del equipo técnico de Anthropic, en X. Reconoció que el despliegue provocó daños colaterales, como suspensiones automáticas de cuentas por filtros antiabuso, algo que la compañía dijo estar revirtiendo. La interrupción de las integraciones no oficiales, en cambio, parece deliberada.

Este tipo de movimiento suele pasar desapercibido hasta que golpea la rutina diaria: la pestaña del IDE deja de responder, el agente se queda sin “combustible” y el equipo descubre que una pieza clave de su cadena de desarrollo dependía de una puerta lateral. Continúa leyendo «Anthropic cierra el paso a los “harnesses” de Claude Code y reordena el tablero de los asistentes de programación»

Anthropic apunta a una nueva ronda de 10.000 millones: qué hay detrás de la valoración de 350.000 millones

La conversación alrededor de Anthropic vuelve a subir de volumen. Según informó The Wall Street Journal y recogió TechCrunch, la compañía detrás de Claude estaría preparando una nueva financiación de unos 10.000 millones de dólares con una valoración cercana a los 350.000 millones. TechCrunch señala que pudo confirmar tanto el tamaño de la ronda como la cifra de valoración a través de una fuente familiarizada con la operación. La empresa, por su parte, declinó hacer comentarios.

Cuando se habla de estas magnitudes es fácil perder la perspectiva. Una forma útil de aterrizarlo: si el mercado de capital riesgo fuese una subasta, esto no sería levantar la mano para pujar un poco más; sería entrar con un megáfono y reservar la primera fila. No significa automáticamente que el negocio “valga” eso en términos tradicionales, pero sí que hay inversores dispuestos a poner dinero a ese precio bajo ciertas expectativas de crecimiento. Continúa leyendo «Anthropic apunta a una nueva ronda de 10.000 millones: qué hay detrás de la valoración de 350.000 millones»