Google AI Plus se expande a nuevos países: qué incluye, cuánto cuesta y cómo encaja con Google One

Google AI Plus es el escalón “intermedio” de las suscripciones de inteligencia artificial de Google: una cuota mensual pensada para quien usa herramientas de IA a menudo, nota los límites del plan gratuito y quiere más margen sin saltar a las opciones más caras. El 27 de enero de 2026, Google comunicó que este plan se lanza en 35 países y territorios adicionales, incluido Estados Unidos, con la intención de que esté disponible en todos los mercados donde ya ofrece sus planes de IA.

La lógica es sencilla: si la IA es como una cocina comunitaria, el plan gratis te deja cocinar, pero con turnos y con el fuego a potencia limitada. Con una suscripción, Google promete más “tiempo de fogones” y acceso a herramientas que, para muchos, pasan de curiosidad ocasional a rutina de trabajo. Continúa leyendo «Google AI Plus se expande a nuevos países: qué incluye, cuánto cuesta y cómo encaja con Google One»

Moltbot: el asistente “agéntico” que cambió de nombre, no de riesgos

Hace apenas unos días, en redes técnicas empezó a circular con fuerza el nombre Clawdbot, un asistente de IA que prometía algo más ambicioso que responder preguntas: actuar. Según contaba Jake Peterson en Lifehacker, su propuesta era la de un asistente agéntico, es decir, un sistema al que no solo le pides consejos, sino que le delegas tareas reales en tu equipo, como ordenar el correo, escribir código o gestionar el calendario. La idea suena cómoda, casi como tener a alguien “haciendo recados” mientras tú trabajas.

El problema es que el éxito repentino no solo trae usuarios; también trae miradas. Y ahí llegó el giro: Clawdbot pasó a llamarse Moltbot tras una petición relacionada con marca registrada por parte de Anthropic, la empresa detrás de Claude y Claude Code, tal y como recogieron tanto Lifehacker como Laravel News. El equipo del proyecto explicó el cambio con tono juguetón en su cuenta oficial de X, mientras que su creador, Peter Steinberger, se mostró bastante menos entusiasmado en su cuenta personal: dio a entender que el cambio no fue una elección.

El nuevo nombre viene con metáfora incorporada: los crustáceos mudan el caparazón para crecer. De ahí que el “clawd” (garra) de antes ahora sea “molt” (muda). El “lobster” mascota también mudó identidad: de “Clawd” a “Molty”. Una mudanza estética que, como veremos, no toca lo esencial. Continúa leyendo «Moltbot: el asistente “agéntico” que cambió de nombre, no de riesgos»

La nueva ola de IA para ciencia: modelos fundacionales entrenados con física, no con palabras

En los últimos años nos hemos acostumbrado a que la inteligencia artificial aprenda leyendo: millones de páginas, conversaciones y descripciones. Ese enfoque funciona muy bien cuando la tarea es escribir, resumir o buscar patrones en lenguaje. La ciencia, sin embargo, se parece menos a una biblioteca y más a un laboratorio lleno de instrumentos: telescopios, sensores, espectros, mapas de presión, velocidad, densidad. Por eso está ganando peso otra idea: entrenar modelos fundacionales con datos científicos reales, para que aprendan regularidades de la física y luego las apliquen a problemas distintos entre sí.

Esa es la apuesta de la colaboración Polymathic AI, con participación de la Universidad de Cambridge, que ha presentado dos modelos con ambición transversal: AION-1 para astronomía y Walrus para sistemas de tipo fluido. La promesa es sencilla de explicar: si has visto muchos tipos de “comportamientos de la naturaleza”, te cuesta menos entender uno nuevo, incluso con pocos datos. Continúa leyendo «La nueva ola de IA para ciencia: modelos fundacionales entrenados con física, no con palabras»

Agentic Vision en Gemini 3 Flash: cuando el modelo “investiga” una imagen en lugar de mirarla una sola vez

Hasta ahora, muchos modelos de IA con capacidad visual trataban las imágenes como si fueran una postal: las “miraban” una vez y respondían. El problema aparece cuando la información importante está escondida en letra pequeña o en un rincón: el número de serie de un chip, un cartel al fondo de una calle o un detalle técnico en un plano. Si el modelo no lo capta en esa primera mirada, tiende a rellenar huecos con suposiciones.

Con Agentic Vision, Google presenta en Gemini 3 Flash una forma distinta de entender imágenes: más parecida a cómo actuaría una persona curiosa con lupa y bloc de notas. La idea es convertir la visión en un proceso activo, no en una interpretación instantánea. En vez de “adivinar” cuando falta contexto, el sistema puede acercarse, recortar, girar o marcar partes concretas para confirmar lo que está viendo y sostener la respuesta sobre evidencia visual. Continúa leyendo «Agentic Vision en Gemini 3 Flash: cuando el modelo “investiga” una imagen en lugar de mirarla una sola vez»

Claude suma aplicaciones interactivas: Slack, Figma y Canva entran en el chat de Anthropic

Hasta ahora, pedirle algo a un chatbot era como hablar con un compañero muy listo por mensajería: te respondía con texto, te explicaba pasos y, con suerte, te dejaba un resultado para copiar y pegar en otra herramienta. Con la nueva función de aplicaciones interactivas en Claude, Anthropic intenta acortar ese paseo de “ida y vuelta” entre pestañas: dentro del propio chat aparecen interfaces de herramientas de trabajo para ejecutar acciones y ver resultados en un formato visual, no solo en forma de párrafos. La noticia la adelantó TechCrunch y la compañía la presentó como una forma de trabajar “más rápido” combinando la inteligencia del modelo con paneles dedicados para diseñar, analizar datos o gestionar proyectos.

La idea de fondo es sencilla de entender con una metáfora cotidiana: si el chatbot era el copiloto que te iba leyendo instrucciones, ahora también puede abrirte el salpicadero y tocar algunos mandos contigo mirando. No sustituye a las apps, sino que acerca sus controles al lugar donde ya estás pidiendo cosas. Continúa leyendo «Claude suma aplicaciones interactivas: Slack, Figma y Canva entran en el chat de Anthropic»

Siri con Gemini: Apple prepara un doble salto de su asistente con apoyo de Google

Durante años, Siri ha sido como ese ayudante amable que entiende lo que le pides… hasta que llega el momento de ejecutar tareas un poco más complejas y se queda a medio camino. Según ha publicado TechCrunch, citando información de Bloomberg firmada por Mark Gurman, Apple planea presentar en la segunda mitad de febrero una nueva versión del asistente impulsada por los modelos Gemini de Google. La promesa: que el asistente deje de ser solo una voz que responde y pase a convertirse en una herramienta capaz de actuar sobre lo que el usuario tiene en su iPhone, incluyendo datos personales y lo que aparece en pantalla.

La clave de esta noticia no es solo la colaboración con Google, sino el momento. Se interpreta como el primer resultado visible de la estrategia de Apple Intelligence anunciada en junio de 2024, cuando Apple adelantó capacidades más proactivas y contextualizadas. La sensación, vista desde fuera, es que la compañía quiere que esa visión deje de sonar a demo de escenario y se convierta en una función cotidiana. Continúa leyendo «Siri con Gemini: Apple prepara un doble salto de su asistente con apoyo de Google»

Nvidia refuerza su apuesta por CoreWeave con 2.000 millones para acelerar 5 GW de capacidad de IA

El crecimiento de la IA se parece cada vez más a una gran ciudad en hora punta: no basta con tener más coches si las carreteras, los aparcamientos y las gasolineras no dan abasto. Con esa lógica, Nvidia anunció una inversión de 2.000 millones de dólares en CoreWeave para impulsar el plan de la compañía de sumar más de 5 gigavatios de potencia de computación orientada a IA antes de 2030, según informó TechCrunch. En vez de limitarse a vender chips, el gigante de los semiconductores está empujando también la infraestructura que permite que esos chips trabajen a pleno rendimiento: centros de datos con terreno, electricidad y diseño pensados específicamente para cargas de entrenamiento e inferencia.

La operación se materializa con la compra de acciones Clase A de CoreWeave a 87,20 dólares por título. Es una señal clara: Nvidia no solo quiere seguir siendo el proveedor de palas en la “fiebre del oro” de la IA; también quiere que haya suficientes minas abiertas para que esas palas se usen sin descanso. Continúa leyendo «Nvidia refuerza su apuesta por CoreWeave con 2.000 millones para acelerar 5 GW de capacidad de IA»

La “música de ascensor” visual: cómo la IA generativa puede aplanar la cultura cuando se alimenta de sí misma

Los sistemas de IA generativa se han convertido en una fábrica de imágenes, textos y sonidos a una velocidad que ningún creador humano puede igualar. Su truco, explicado sin mística, consiste en aprender patrones a partir de enormes colecciones de contenido hecho por personas, recopilado de internet y otras fuentes. El detalle inquietante es qué ocurre cuando ese material humano deja de ser el ingrediente principal y el sistema empieza a cocinar con sobras: datos sintéticos generados por otras IA, una y otra vez, como quien recalienta el mismo plato hasta que pierde sabor.

Esa idea, que hasta hace poco sonaba a teoría, está tomando forma con evidencias experimentales. Varios trabajos previos ya habían advertido que entrenar modelos con contenido generado por modelos puede degradar su calidad con el tiempo, como si el sistema se “desenfocara” por mirar demasiadas veces una copia de una copia. La pregunta cultural es igual de seria: si la red se llena de contenido automatizado y los modelos se alimentan de ese material, ¿qué pasa con la diversidad creativa? Continúa leyendo «La “música de ascensor” visual: cómo la IA generativa puede aplanar la cultura cuando se alimenta de sí misma»

Maia 200: el nuevo chip de IA de Microsoft se mide con Amazon y Google

Microsoft vuelve a mover ficha en el tablero del hardware para inteligencia artificial con Maia 200, el sucesor de su primer acelerador interno, Maia 100. Según ha contado Tom Warren en The Verge y confirma la propia compañía, el despliegue empieza hoy, 26 de enero de 2026, en los centros de datos de Microsoft. El contexto es claro: entrenar y ejecutar modelos cada vez más grandes exige una potencia que ya no se puede “comprar en el supermercado” con la misma facilidad de hace unos años. Tener un chip propio no es solo una cuestión de orgullo tecnológico; es como tener cocina industrial en un restaurante con mucha demanda: te permite controlar mejor costes, tiempos y capacidad, en lugar de depender siempre del proveedor de fuera. Continúa leyendo «Maia 200: el nuevo chip de IA de Microsoft se mide con Amazon y Google»

Deep Search e IA generativa para invertir en bolsa a corto plazo sin perder el control

Invertir a corto plazo se parece menos a “adivinar el futuro” y más a gestionar información bajo presión. En minutos pueden convivir un titular que cambia el ánimo del mercado, un giro en la guía de una compañía y una vela en el gráfico que rompe un soporte. Aquí es donde entran Deep Search y la IA generativa: permiten rastrear muchas fuentes a la vez, detectar qué fragmentos importan y convertir ese ruido en una lectura coherente.

Herramientas como Perplexity (en su enfoque de búsqueda profunda) nacen con una idea útil para trading: no te devuelven “documentos para leer”, te devuelven piezas relevantes ya recortadas y priorizadas, listas para que un modelo de lenguaje las entienda. En paralelo, modelos como Claude (Anthropic) o equivalentes pueden interpretar matices que un análisis de sentimiento clásico suele perder, como cuando “crecimiento más lento de lo esperado” suena negativo por palabras sueltas, pero en contexto puede ser un alivio para el mercado. Continúa leyendo «Deep Search e IA generativa para invertir en bolsa a corto plazo sin perder el control»