Gemini se vuelve más personal: así funciona “Personal Intelligence” y qué implica para tu privacidad

Google acaba de presentar Personal Intelligence, una función que permite que Gemini responda de forma más personalizada conectándose a información de tu cuenta, como Gmail, Google Photos, Search y tu historial de YouTube. La promesa suena muy tentadora: que el asistente deje de ser un “buscador con esteroides” y empiece a comportarse como alguien que entiende tu contexto y tus rutinas, sin que tengas que explicar cada detalle desde cero.

La idea central es sencilla: si el asistente puede mirar (con tu permiso) lo que ya existe en tus servicios de Google, puede darte respuestas más útiles y ajustadas. Es parecido a pedirle ayuda a una persona que ya conoce tus preferencias, tu calendario, tus viajes y tu forma de organizarte. La diferencia es que aquí ese conocimiento no viene de convivir contigo, sino de conectar fuentes digitales que ya has usado durante años.

Según Google, esta opción llega como beta en Estados Unidos, con un despliegue gradual para ciertos suscriptores de pago, y requiere opt-in: está desactivada por defecto y tienes que activarla de manera explícita. La compañía lo explica en un texto firmado por Josh Woodward, vicepresidente de Google Labs, Gemini y AI Studio, y también se ha comentado en medios como The Verge. Continúa leyendo «Gemini se vuelve más personal: así funciona “Personal Intelligence” y qué implica para tu privacidad»

Repetir el prompt: una forma sorprendentemente simple de mejorar la precisión de los LLM en tareas directas

Durante estos años, optimizar respuestas de un modelo de lenguaje se ha convertido en una especie de cocina experimental: cambias el tono, ajustas instrucciones, añades ejemplos, vuelves a probar. En ese contexto, resulta casi cómico que una técnica tan literal como duplicar la petición —es decir, escribir el mismo texto dos veces seguidas— pueda mejorar el rendimiento en tareas donde no hace falta un razonamiento largo.

La idea es muy simple: el input que normalmente sería <PETICIÓN> pasa a ser <PETICIÓN><PETICIÓN>. No es una reformulación elegante ni un “prompt engineering” sofisticado. Es repetir, tal cual. Y, según los experimentos descritos por investigadores de Google Research, esta repetición puede aumentar de manera notable la precisión en tareas “no razonadoras”, que son justo las que más abundan en producto: extracción de datos, clasificación, respuestas cortas, cumplimiento de instrucciones concretas, recuperación fiel de un detalle dentro de un texto. Continúa leyendo «Repetir el prompt: una forma sorprendentemente simple de mejorar la precisión de los LLM en tareas directas»

Centros de datos hiperescalados para IA: el músculo invisible que entrena modelos gigantes… y su factura energética

Los centros de datos hiperescalados para IA se están convirtiendo en el equivalente tecnológico de una refinería o una acería: instalaciones enormes, planificadas para trabajar sin descanso y orientadas a un objetivo muy concreto, entrenar y ejecutar modelos de lenguaje y otros sistemas de inteligencia artificial a escala descomunal. Donde antes imaginábamos “la nube” como algo etéreo, aquí toma forma de edificios mastodónticos que aparecen en polígonos industriales o en áreas rurales, buscando terreno, conexión eléctrica y permisos con la misma urgencia con la que una ciudad busca agua.

Según MIT Technology Review, esta nueva infraestructura no es solo una ampliación de lo ya conocido: es una especie distinta de supercomputación, diseñada alrededor de chips especializados, redes ultrarrápidas y sistemas de enfriamiento poco habituales fuera de la industria pesada. Continúa leyendo «Centros de datos hiperescalados para IA: el músculo invisible que entrena modelos gigantes… y su factura energética»

Slackbot vuelve con traje de agente de IA: la apuesta de Salesforce para que Slack sea el “centro de mando” del trabajo

Durante años, Slackbot fue ese compañero discreto que te recordaba normas de un canal, te sugería archivos o te soltaba avisos como quien deja una nota en la nevera. Salesforce lo ha reconstruido por completo para convertirlo en un agente de IA capaz de buscar información en sistemas corporativos, redactar documentos y ejecutar acciones dentro del flujo de trabajo. Según detalló la compañía en declaraciones recogidas por VentureBeat, la idea es que Slack deje de ser solo un lugar para chatear y pase a actuar como la puerta de entrada al trabajo “agéntico”, esa nueva ola en la que el software no solo responde, también colabora.

La metáfora interna que usaron para explicarlo es bastante gráfica: el Slackbot antiguo era como un triciclo; el nuevo se siente como un coche deportivo. Traducido a la vida real, significa pasar de tareas simples y preprogramadas a un sistema que entiende peticiones en lenguaje natural y sabe moverse por datos dispersos, como si un bibliotecario con súperpoderes pudiera recorrer estanterías, archivadores y conversaciones antiguas en segundos. Continúa leyendo «Slackbot vuelve con traje de agente de IA: la apuesta de Salesforce para que Slack sea el “centro de mando” del trabajo»

Un “inspector” para las respuestas de los chatbots: así funciona el marco que verifica si una IA acierta

Cualquiera que haya trabajado en atención al cliente conoce el dilema: un error evidente se detecta rápido, pero una respuesta “casi correcta” puede colarse con facilidad. En los chatbots basados en modelos de lenguaje (LLM) ese riesgo se multiplica, porque suelen redactar con seguridad incluso cuando les falta un matiz, una condición o una excepción importante. El resultado es una sensación engañosa de fiabilidad: parece bien escrito, parece razonable, pero puede no ser correcto para el caso concreto.

Ese es el punto de partida de un trabajo impulsado por la Universidad de Groningen junto a la empresa neerlandesa AFAS, que buscaba acelerar un proceso muy común en empresas: el chatbot redacta la respuesta, pero un empleado la revisa antes de enviarla al cliente. La pregunta es simple y práctica: ¿se puede reducir el tiempo humano sin aumentar el riesgo de errores? Continúa leyendo «Un “inspector” para las respuestas de los chatbots: así funciona el marco que verifica si una IA acierta»

Claude Cowork: el nuevo modo “manos a la obra” de Anthropic para convertir a Claude en asistente de escritorio

Anthropic acaba de presentar Claude Cowork, una función pensada para empujar a Claude un paso más allá del chat y acercarlo a la idea de agente de IA: un sistema que no solo responde, sino que ejecuta tareas con acceso controlado a recursos del usuario. El anuncio llega en formato “research preview”, una etiqueta que suele significar dos cosas a la vez: que la empresa quiere aprender rápido observando usos reales y que, por ahora, hay límites claros de disponibilidad y de expectativas.

Según explicó Anthropic en su blog y recogió Hayden Field en The Verge, Cowork nace para capturar parte del entusiasmo que está generando Claude Code, pero con un enfoque más accesible para tareas no necesariamente técnicas. La promesa es sencilla de entender si lo aterrizamos a lo cotidiano: en lugar de pedirle a alguien “dime cómo ordenar el trastero” y luego hacerlo tú con tus manos, Cowork se parece más a darle las llaves de una habitación concreta y decirle “ordena esto siguiendo estas reglas, y me vas contando lo que haces”. Continúa leyendo «Claude Cowork: el nuevo modo “manos a la obra” de Anthropic para convertir a Claude en asistente de escritorio»

Meta Compute: la apuesta de Meta por una infraestructura de IA propia y una huella energética a escala industrial

Meta lleva tiempo insinuando que su próximo gran campo de batalla no está solo en los modelos, sino en lo que los hace funcionar. Si la inteligencia artificial generativa fuese un coche de carreras, los modelos serían el chasis y la aerodinámica; la infraestructura de IA sería el motor, el combustible y el taller donde se ajusta todo para ganar décimas. En esa línea, Mark Zuckerberg anunció en Threads el lanzamiento de Meta Compute, una iniciativa para reforzar y expandir la capacidad de cómputo de la compañía con una ambición energética poco habitual: hablar de decenas de gigavatios durante esta década y, con el tiempo, cientos de gigavatios o más.

La noticia, publicada por TechCrunch el 12 de enero de 2026, encaja con el mensaje que Meta ya venía trasladando a analistas e inversores. En una llamada de resultados el verano pasado, su directora financiera, Susan Li, señaló que desarrollar una infraestructura puntera sería una ventaja central para crear mejores modelos y experiencias de producto, según recogió la propia compañía en ese contexto y recuerda TechCrunch. Continúa leyendo «Meta Compute: la apuesta de Meta por una infraestructura de IA propia y una huella energética a escala industrial»

Apple apuesta por Gemini para impulsar Siri: qué cambia en el iPhone y por qué importa

Apple y Google han confirmado una colaboración plurianual para que la próxima generación de los Apple Foundation Models se base en los modelos Gemini y en tecnología de nube de Google. Según el comunicado conjunto publicado por Google en The Keyword, el objetivo es alimentar futuras funciones de Apple Intelligence, incluida una versión más personal de Siri que llegaría “este año”. La noticia también fue recogida por Associated Press, que la enmarca como un movimiento para acelerar los planes de Apple en inteligencia artificial tras un despliegue más lento de lo esperado.

Dicho de forma sencilla: Apple no “entrega” Siri a Google, pero sí adopta a Gemini como base para parte de sus modelos fundacionales, con la idea de que esas capacidades se traduzcan en funciones concretas en iPhone, iPad y otros dispositivos. Continúa leyendo «Apple apuesta por Gemini para impulsar Siri: qué cambia en el iPhone y por qué importa»

Comet y los agentes de IA en la vida real: qué revela el primer gran estudio de Perplexity

Durante años, hablar con un modelo de lenguaje se parecía a conversar con un bibliotecario muy rápido: te respondía, te explicaba, te sugería fuentes. Un agente de IA, en cambio, se parece más a un asistente que no solo te indica dónde está el libro, sino que va, lo saca, copia lo relevante, lo ordena y te lo deja listo en la mesa. Esa diferencia —pasar de responder a actuar— es el núcleo del estudio “The Adoption and Usage of AI Agents: Early Evidence from Perplexity”, firmado por Jeremy Yang (Harvard) y un equipo de Perplexity, y publicado en arXiv en diciembre de 2025.

El artículo propone una definición operativa: sistemas capaces de perseguir objetivos definidos por el usuario mediante planificación y acciones en múltiples pasos, con cierto nivel de autonomía, en entornos reales como la web. Para explicarlo sin jerga: si pedirle a un chatbot “recomiéndame un vuelo barato” es una consulta, pedirle a un agente “encuentra el mejor vuelo con estas condiciones y resérvalo” es un encargo.

Continúa leyendo «Comet y los agentes de IA en la vida real: qué revela el primer gran estudio de Perplexity»

Una mesa de póker entre GPT, Claude, DeepSeek, Gemini y Grok: lo que enseña LLM Holdem sobre faroles y razonamiento

A veces, la forma más clara de entender una tecnología no es leer un informe técnico, sino verla “trabajar” en un entorno con tensión, incertidumbre y decisiones rápidas. Eso es lo que propone LLM Holdem, un experimento creado por Jason Yang en el que varios modelos de lenguaje compiten en una mesa virtual de póker bajo condiciones tipo torneo. La idea se hizo popular a través de Microsiervos, que lo contaba como un entretenimiento curioso por un motivo muy concreto: no solo importa quién gana, sino cómo justifican cada movimiento.

Ver a GPT, Claude, DeepSeek, Gemini y Grok jugar no es como mirar un videojuego en silencio. Lo interesante está en el “pensamiento en voz alta” que acompaña a las apuestas: explican por qué igualan, por qué suben, por qué se retiran y en qué cartas comunitarias ponen su esperanza. Es como sentarte detrás de varios jugadores que narran su monólogo interior mientras miran sus fichas. Continúa leyendo «Una mesa de póker entre GPT, Claude, DeepSeek, Gemini y Grok: lo que enseña LLM Holdem sobre faroles y razonamiento»