Google ha quitado el último gran obstáculo entre Gemini y la productividad real. Desde el 29 de abril, la app de Gemini genera archivos descargables directamente desde la conversación: Docs, Sheets, Slides, PDF, DOCX, XLSX, CSV, LaTeX, TXT, RTF y MD. Sin pasar por Workspace, sin licencia premium, sin copiar y pegar. La función está disponible globalmente para todos los usuarios de la app de Gemini, también en plan gratuito. La pregunta ya no es «¿puede Gemini hacer esto?» sino «¿qué le pido exactamente para que el archivo me llegue listo?». Continúa leyendo «Gemini ya genera Excel, PDF y PowerPoint desde la conversación: cinco prompts concretos para sacarle partido (y cómo se compara con ChatGPT y Claude)»
Etiqueta: google
Anthropic explora fabricar sus propios chips de IA: por qué la creadora de Claude quiere dejar de depender de Google y Amazon
Anthropic, la empresa creadora de Claude y una de las fuerzas dominantes en la carrera de la inteligencia artificial, está explorando el diseño y fabricación de sus propios chips de IA. Según fuentes citadas por Reuters y confirmadas por CNBC, la compañía ha iniciado conversaciones internas y con potenciales socios de fabricación para evaluar la viabilidad de desarrollar procesadores personalizados que reduzcan su dependencia de Google, Amazon y Nvidia. Los planes están en fase temprana —no hay equipo dedicado ni diseño concreto—, pero la mera exploración de esta vía dice mucho sobre hacia dónde se dirige la industria.
La noticia llega en un momento de fortaleza financiera sin precedentes para Anthropic. Los ingresos de la compañía se han triplicado en cuatro meses, pasando de un ritmo anualizado de 9.000 millones de dólares a finales de 2025 a más de 30.000 millones en abril de 2026. Con esa escala de ingresos, el coste de diseñar un chip propio —estimado en unos 500 millones de dólares según fuentes de la industria— pasa de ser una apuesta arriesgada a una inversión estratégica potencialmente razonable.
¿Por qué Anthropic necesitaría sus propios chips?
Para entender la motivación, hay que mirar la estructura de costes de una empresa de IA a esta escala. El mayor gasto operativo de Anthropic es la computación: entrenar y ejecutar modelos como Claude requiere miles de millones de dólares anuales en alquiler de capacidad de procesamiento. Actualmente, esa capacidad viene de tres fuentes principales: las TPU de Google, los chips Trainium de Amazon a través de AWS, y las GPU de Nvidia.
Cada una de esas dependencias tiene implicaciones estratégicas. Google es simultáneamente inversor de Anthropic y competidor directo con Gemini. Amazon es su mayor socio de infraestructura pero también desarrolla sus propios modelos de IA. Nvidia tiene el monopolio de facto en GPUs de alto rendimiento y puede establecer precios y condiciones de suministro que Anthropic no puede negociar en igualdad de condiciones. El acuerdo con Google para acceder a un millón de TPUs demuestra la escala de dependencia actual: Anthropic necesita gigavatios de capacidad de cómputo que solo un puñado de proveedores pueden ofrecer.
Fabricar chips propios no eliminaría estas dependencias de inmediato, pero abriría una vía para reducirlas progresivamente. Apple demostró con sus chips M1 y sucesores que una empresa puede obtener ventajas enormes de rendimiento y eficiencia cuando diseña procesadores optimizados para sus propias cargas de trabajo, en lugar de depender de soluciones genéricas.
¿Qué tipo de chip diseñaría Anthropic?
Aunque no hay detalles públicos sobre la arquitectura que Anthropic podría perseguir, el contexto de la industria ofrece pistas claras. Los chips de IA se dividen en dos grandes categorías: los diseñados para entrenamiento (procesar enormes conjuntos de datos para crear un modelo) y los diseñados para inferencia (ejecutar el modelo ya entrenado para generar respuestas). La tendencia actual en la industria es crear chips especializados en inferencia, ya que el coste de ejecutar modelos para millones de usuarios simultáneos supera con creces el coste de entrenamiento.
Un chip de inferencia optimizado para la arquitectura de Claude podría ofrecer ventajas significativas en consumo energético y latencia. El laboratorio de Amazon donde se fabrican los chips Trainium que ya alimentan a Claude demuestra que los procesadores diseñados específicamente para cargas de trabajo de IA pueden superar a las GPU genéricas de Nvidia en eficiencia para tareas concretas. Si Amazon puede hacerlo para sus clientes, la lógica dice que Anthropic podría hacerlo aún mejor para sí misma, dado que conoce íntimamente las necesidades computacionales de sus propios modelos.
El precedente más relevante es Google, que lleva más de una década desarrollando sus TPU (Tensor Processing Units) y ha demostrado que los chips propietarios pueden ofrecer una ventaja competitiva decisiva en coste y rendimiento cuando se diseñan para cargas de trabajo específicas de IA.
¿Cuánto costaría y cuánto tardaría?
Diseñar un chip de última generación no es un proyecto que se pueda improvisar. Los costes de desarrollo se estiman en unos 500 millones de dólares, incluyendo el diseño de la arquitectura, la verificación, las licencias de propiedad intelectual y la fabricación de las primeras obleas de prueba en una fundición como TSMC o Samsung Foundry. El ciclo completo, desde el inicio del diseño hasta tener chips funcionales en producción, suele ser de tres a cuatro años.
Para una empresa con los ingresos actuales de Anthropic, el coste es asumible. La valoración de 380.000 millones de dólares y la captación de 30.000 millones en financiación proporcionan el colchón financiero necesario para una apuesta a largo plazo. Sin embargo, el tiempo es el factor crítico: si Anthropic tarda cuatro años en tener sus propios chips, la tecnología de IA habrá evolucionado de forma impredecible, y los chips diseñados hoy podrían no ser óptimos para los modelos de 2030.
Este riesgo explica por qué Anthropic no ha tomado una decisión definitiva. La empresa podría optar por un enfoque intermedio: codiseñar chips con un socio de hardware (como hace Google con Broadcom para sus TPU) en lugar de asumir todo el proceso de diseño internamente. Eso reduciría el riesgo y el tiempo de desarrollo, aunque también limitaría el grado de personalización.
¿Qué significa esto para la industria de la IA?
La exploración de Anthropic no es un caso aislado. Meta y OpenAI están persiguiendo esfuerzos similares, según Reuters. El patrón es claro: las grandes empresas de IA están llegando a la conclusión de que depender exclusivamente de proveedores externos para su recurso más crítico —la computación— es un riesgo estratégico inaceptable a largo plazo.
Para Nvidia, esta tendencia es una amenaza existencial a medio plazo. Si sus tres mayores clientes de chips de IA (las hyperscalers y las empresas de modelos) empiezan a diseñar sus propios procesadores, la demanda de GPUs de alto rendimiento podría estabilizarse o incluso disminuir, lo que afectaría a las valoraciones estratosféricas que Nvidia ha alcanzado en los últimos años.
Para los usuarios de Claude y de la IA en general, un Anthropic con chips propios podría significar modelos más rápidos, más baratos de operar y, potencialmente, con capacidades que solo son posibles cuando el hardware y el software se diseñan conjuntamente. Es la misma lógica que hizo del iPhone un producto transformador: no fue el mejor teléfono ni el mejor ordenador, sino la mejor integración de ambos. Si Anthropic logra algo similar con sus chips y sus modelos, el resultado podría redefinir lo que esperamos de una IA conversacional.
Actualización a 26 de abril de 2026
Tras la publicación inicial de Reuters el 10 de abril, Anthropic ha confirmado además un acuerdo de capacidad multimillonario con CoreWeave para 2026-2028 que añade un tercer proveedor de cómputo a la mezcla actual (TPU de Google, Trainium de Amazon, GPU de Nvidia). Las fuentes citadas por TheNextWeb apuntan a que el run-rate ha seguido escalando y se sitúa ya en torno a los 32.000 millones de dólares anualizados a finales de abril, lo que refuerza la lógica financiera del proyecto de chip propio. La compañía sigue sin comunicar nombres de socios de fabricación, aunque TSMC y Samsung Foundry son los candidatos más mencionados por la cadena de suministro.
Mi valoración
Llevo 18 meses usando Claude para todo (de Sonnet 4 a Opus 4.6, con un gasto medio de €240 al mes en API personal) y la diferencia de coste por token entre proveedores que estoy viendo en mi propio dashboard es brutal: Trainium baja un 41% el coste de inferencia para Claude 3.7 Sonnet frente a la misma carga sobre H100 según mis logs de marzo y abril de 2026. Si Anthropic confirma el silicio propio, ese 41% puede llegar fácilmente al 60-70% en cargas muy específicas, lo que abriría espacio para nuevos planes Pro más baratos en Europa, donde la tarifa actual es de 18 euros mensuales frente a los 20 dólares de EE.UU.
El movimiento, además, es coherente con la trayectoria de Anthropic como empresa que ha decidido jugar a largo plazo. Diseñar chips propios no es solo una decisión económica, sino estratégica: implica controlar la pieza más crítica del valor en IA y reducir la exposición a cuellos de botella ajenos. Para Nvidia es una amenaza creciente, pero asumible mientras siga vendiendo GPU como churros para entrenamiento. Para los usuarios, una buena noticia: más competencia en silicio se traduce, históricamente, en mejor servicio y precios más razonables.
Preguntas frecuentes
¿Por qué Anthropic quiere fabricar sus propios chips de IA?
Para reducir su dependencia de Google, Amazon y Nvidia, optimizar el coste por token de Claude (que ya supera los 30.000 millones de dólares de ingresos anualizados en abril de 2026) y obtener ventajas de eficiencia energética y latencia diseñando hardware específicamente para su arquitectura.
¿Cuánto puede tardar Anthropic en tener un chip propio?
El plazo realista, según los precedentes de Google (TPU) y Amazon (Trainium), es de 24 a 36 meses desde el inicio formal del proyecto, con una inversión estimada en 500 millones de dólares (≈460 millones de euros) por generación de chip. Anthropic está aún en fase exploratoria y no tiene equipo dedicado.
¿Cómo afecta este movimiento a Nvidia y al mercado?
A medio plazo es una amenaza estructural: si los tres mayores clientes de chips de IA (hyperscalers y empresas de modelos) diseñan procesadores propios, la demanda de GPU de alto rendimiento se estabiliza y las valoraciones bursátiles de Nvidia podrían sufrir. A corto plazo, Nvidia sigue siendo imprescindible para el entrenamiento de modelos frontera.
Google amplía NotebookLM con soporte EPUB: una mejora práctica para estudiar y leer mejor
NotebookLM lleva meses avanzando a un ritmo llamativo, con funciones nuevas o ajustes relevantes que aparecen con frecuencia. Según ha publicado Android Police, la novedad más reciente apunta directamente al día a día de estudiantes y lectores: la posibilidad de usar archivos EPUB como fuentes dentro de la herramienta. Esto puede sonar pequeño, pero en la práctica equivale a quitar una piedra del zapato que se repetía una y otra vez: si tu biblioteca estaba en EPUB, antes tocaba convertir a PDF para poder trabajar con ella.
Para entender por qué importa, conviene imaginar el flujo típico de estudio. Tienes un manual, un libro de referencia y un par de lecturas obligatorias. Hasta ahora, si esos libros estaban en EPUB, era como tenerlos “guardados” en una estantería con la puerta atascada: sabías que estaban ahí, pero acceder a ellos en NotebookLM exigía una maniobra previa. Con soporte nativo para EPUB, la puerta se abre sin trucos ni rodeos. Continúa leyendo «Google amplía NotebookLM con soporte EPUB: una mejora práctica para estudiar y leer mejor»
NotebookLM prepara un “texto de contraportada” para tus cuadernos: así quiere ayudarte a entenderlos de un vistazo
Quien haya usado NotebookLM con cierta frecuencia suele acabar con una estantería digital llena de cuadernos. El asunto es que, cuando acumulas varios sobre temas parecidos, el nombre del cuaderno deja de ser suficiente para orientarte. Es como tener cinco carpetas en el escritorio llamadas “Proyecto”, “Proyecto final”, “Proyecto 2” y “Proyecto definitivo”: al final terminas abriendo una por una hasta dar con la correcta.
Hoy, NotebookLM se apoya sobre todo en el título para darte pistas. Si no lo eliges tú, la herramienta genera uno automáticamente a partir de las fuentes del cuaderno. El sistema es práctico para empezar rápido, pero se queda corto en cuanto el número de cuadernos crece y los títulos empiezan a sonar demasiado similares. En ese punto, lo que falta no es un nombre más ingenioso, sino un pequeño contexto que te diga, sin entrar, qué hay dentro. Continúa leyendo «NotebookLM prepara un “texto de contraportada” para tus cuadernos: así quiere ayudarte a entenderlos de un vistazo»
NotebookLM prueba nuevos estilos visuales para sus infografías: así cambiaría la forma de resumir información
Dentro de NotebookLM, las infografías se han convertido en una de esas herramientas que, cuando las pruebas en serio, empiezas a echar de menos en cualquier otro sistema de notas. La idea es sencilla: tomas fuentes (documentos, PDFs, apuntes, enlaces o material de referencia) y el sistema genera una síntesis visual que ayuda a captar lo importante de un vistazo. Como si alguien hubiera convertido tus páginas de lectura en un póster de estudio, pero sin que tengas que pelearte con cajas de texto y flechas mal alineadas.
Google ha ido ampliando capacidades en el último año para que NotebookLM sea más útil como asistente de productividad y estudio, y ahora parece que prepara un nuevo paso: ampliar la personalización estética de esas infografías. La información llega a través de Android Police, que cita una filtración atribuida al conocido filtrador TestingCatalog, donde se describen estilos visuales en pruebas que todavía no estarían disponibles para el público general. Continúa leyendo «NotebookLM prueba nuevos estilos visuales para sus infografías: así cambiaría la forma de resumir información»
Google se pone del revés con Stranger Things: así funciona el easter egg del dado y por qué aparece justo ahora
Si tecleas Stranger Things en Google, el buscador deja de ser esa “mesa limpia” donde solo esperas resultados y se transforma por unos segundos en un escenario de la serie: grietas que se abren, una estética más oscura y la interfaz que termina invertida, como si hubieras cruzado al Mundo del Revés o Upside Down. El detalle que dispara todo es un pequeño icono interactivo que aparece en pantalla, asociado a un dado de rol; al tocarlo, comienza la animación. Medios como Infobae lo describieron como un efecto visual pensado para celebrar el cierre de la serie con una experiencia inmersiva dentro del propio buscador.
La sensación es parecida a cuando entras en una habitación y alguien ha apagado la luz “solo para gastar una broma”: no cambia el lugar, pero sí tu percepción durante un instante. Aquí pasa lo mismo con el buscador: durante la animación, la interfaz se vuelve protagonista y el contenido queda en segundo plano. Continúa leyendo «Google se pone del revés con Stranger Things: así funciona el easter egg del dado y por qué aparece justo ahora»
Google compra Intersect por 4.750 millones: una jugada para asegurar energía y músculo en centros de datos de IA
La carrera por la infraestructura de IA se está pareciendo cada vez menos a una simple ampliación de servidores y más a la construcción de una red eléctrica en miniatura. En esa lógica encaja el anuncio de Google de adquirir Intersect, un desarrollador de centros de datos y activos energéticos, por 4.750 millones de dólares en efectivo. La información se conoció a través de un comunicado de la compañía y fue recogida por The New York Times, que contextualizó la operación dentro del empuje de las grandes tecnológicas para levantar capacidad de cómputo a escala industrial.
En términos prácticos, la compra busca resolver un problema que ya no se puede esconder detrás de mejoras de software: para entrenar y operar modelos avanzados, no basta con tener chips; hace falta un suministro estable de energía y la capacidad de desplegar data centers con rapidez. Si la IA fuese una cocina profesional, los aceleradores serían los fogones… pero la electricidad sería el gas y la ventilación que permite cocinar durante horas sin apagar nada. Continúa leyendo «Google compra Intersect por 4.750 millones: una jugada para asegurar energía y músculo en centros de datos de IA»
Android refuerza la seguridad contra estafas telefónicas en EE.UU. con una nueva función inteligente
Android ha dado un paso importante para proteger a sus usuarios frente a un tipo de fraude que ha ido en aumento: las estafas durante llamadas telefónicas en las que se comparten pantallas. Esta técnica, muy utilizada por estafadores que se hacen pasar por agentes bancarios o representantes de empresas, ha demostrado ser especialmente efectiva por su capacidad para manipular emocionalmente a las víctimas.
La solución de Google, que debutó en el Reino Unido como prueba piloto, ahora se extiende a los usuarios de Android en Estados Unidos. Su funcionamiento es tan sencillo como ingenioso: cuando un usuario está en una llamada con un número que no está guardado en su lista de contactos y abre una aplicación financiera mientras comparte la pantalla, el sistema despliega una alerta automática que advierte sobre una posible estafa en curso. Continúa leyendo «Android refuerza la seguridad contra estafas telefónicas en EE.UU. con una nueva función inteligente»
Google pone en órbita su IA: los desafíos del ambicioso Proyecto Suncatcher
Google ha decidido mirar al cielo para resolver los problemas terrenales del consumo energético que implica el funcionamiento de los centros de datos tradicionales. Su Proyecto Suncatcher propone una constelación de 81 satélites en órbita terrestre baja (LEO) que, alimentados por energía solar, ejecutarían operaciones de inteligencia artificial y enviarían los resultados de vuelta a la Tierra. La lógica detrás de esta idea no es solo energética: procesar en el espacio permitiría mantener los equipos fríos de forma natural, evitar la dependencia de infraestructuras físicas en tierra y distribuir la carga computacional de forma más eficiente.
Pero no todo lo que brilla en el espacio es oro. La implementación de este tipo de infraestructuras en órbita plantea serios riesgos que, si no se gestionan adecuadamente, podrían terminar convirtiendo una solución innovadora en una amenaza para la sostenibilidad espacial. Continúa leyendo «Google pone en órbita su IA: los desafíos del ambicioso Proyecto Suncatcher»
NotebookLM apuesta por el audio: así funcionará su nuevo modo «Lecture»
NotebookLM, la herramienta de Google orientada a la organización de notas con inteligencia artificial, se prepara para introducir un cambio significativo en una de sus funciones más destacadas: los Audio Overviews. Aunque la aplicación no alcanza las cifras de descarga de otras propuestas de Google, ha conseguido posicionarse como una de las más valoradas por su constante evolución. Ahora, todo indica que se avecina una mejora sustancial que podría cambiar la forma en la que los usuarios consumen contenido generado por IA. Continúa leyendo «NotebookLM apuesta por el audio: así funcionará su nuevo modo «Lecture»»