Durante años, Google Search ha sido la puerta de entrada a la información pública: páginas, noticias, reseñas, mapas. La apuesta que presenta Google ahora va por otro carril: que el buscador también pueda usar tu propio contexto para responder mejor. A esa capa la llama Personal Intelligence, y desde el 22 de enero de 2026 empieza a integrarse en AI Mode dentro de la Búsqueda, con una condición clave: tú decides si se activa o no y qué datos conecta.
La idea se entiende con un ejemplo cotidiano. Pedirle recomendaciones a alguien que te conoce bien no se parece a preguntarle a un desconocido. Tu amiga sabe que te mareas en carretera, que te gustan los museos pequeños y que tu hijo no suelta el helado ni en invierno. Un buscador tradicional funciona más como el desconocido: útil, pero te obliga a dar mucha explicación previa para aterrizar lo que quieres. Con Personal Intelligence, Google intenta que AI Mode se parezca más a esa amiga: que arranque con ventaja porque “recuerda” tu contexto, siempre que lo autorices.
Qué cambia cuando conectas Gmail y Google Photos
El movimiento concreto es la posibilidad de conectar Gmail y Google Photos a AI Mode en Google Search. Según explica Robby Stein, vicepresidente de producto de Google Search, esta conexión permite que el sistema “una los puntos” entre tu vida en apps de Google y la información global de la web para darte respuestas más ajustadas a ti (fuente: Google, The Keyword).
En la práctica, esto significa que si preguntas por planes para un fin de semana, el modelo no solo mira qué se suele recomendar en esa ciudad: también podría tener en cuenta una reserva de hotel que esté en tu correo o patrones que se deduzcan de tus fotos (por ejemplo, que sueles ir a heladerías o que te atraen los museos interactivos). El objetivo no es que el buscador te devuelva una lista genérica, sino un punto de partida más cercano a tu realidad.
Google también lo plantea para compras. Si pides ayuda para elegir una prenda para un viaje, AI Mode podría considerar la confirmación de vuelo en Gmail para ubicar destino y fechas, y cruzarlo con tus preferencias de marcas o tipos de compra. La metáfora aquí es la de un “personal shopper” que ya sabe tu agenda y tu estilo antes de que le expliques todo desde cero.
Recomendaciones que “encajan” sin que tengas que dar tantas pistas
Uno de los detalles más relevantes de esta propuesta es la reducción del esfuerzo del usuario. Quien haya intentado afinar una búsqueda sabe el baile: abrir diez pestañas, añadir “para niños”, “sin colas”, “cerca del hotel”, “sin gluten”, “barato pero bonito”. Personal Intelligence pretende recortar ese camino haciendo que AI Mode arranque con parte del contexto ya incorporado.
Google menciona pruebas internas donde la personalización llevó a descubrimientos que, sin ese contexto, no habrían aparecido. El ejemplo que pone la compañía es el de unas zapatillas: el sistema detecta una marca comprada recientemente y sugiere un modelo nuevo que encaja con ese patrón de compra, y la recomendación termina siendo tan precisa que deriva en una compra inmediata (fuente: Google, The Keyword). Conviene leerlo como lo que es: un caso ilustrativo desde el lado de Google, no una promesa de que siempre vaya a acertar, pero sí una pista de hacia dónde apunta el producto.
También abre la puerta a consultas menos “utilitarias”. Google sugiere preguntas lúdicas como imaginar el título y el género de una película sobre tu vida o describir tu día perfecto. En este tipo de interacciones, el valor no está en la exactitud como si fuera una calculadora, sino en la sensación de que la respuesta tiene textura personal, como cuando alguien te escribe una felicitación con referencias que solo tú entiendes.
Control, transparencia y el tema que siempre pesa: privacidad
Cuando un producto toca correo y fotos, la conversación se vuelve inevitablemente sensible. Google insiste en tres ideas: elección, control y transparencia. La conexión de Gmail y Google Photos es estrictamente opcional: tienes que activarla de forma voluntaria y puedes desactivarla cuando quieras. La experiencia se presenta como una función experimental dentro de Labs, lo que también sirve para enmarcarla como algo en despliegue, con margen de mejora.
Hay otro punto que Google subraya: AI Mode utiliza su modelo más avanzado, Gemini 3, y la compañía afirma que no entrena “directamente” con el contenido de tu bandeja de entrada o tu biblioteca de fotos. En su descripción, el entrenamiento se limita a cierta información relacionada con el uso de la función, como los prompts que escribes en AI Mode y las respuestas del sistema, con el objetivo de mejorar el funcionamiento con el tiempo (fuente: Google, The Keyword). Esta formulación merece atención por parte de cualquiera que sea muy exigente con datos personales: la diferencia entre “no entrenar directamente con tu Gmail” y “usar señales de interacción” puede ser importante según cómo se implemente y cómo se documenten los controles.
En términos prácticos, la recomendación para usuarios es simple: si te atrae la utilidad, actívalo; si te incomoda la idea de mezclar búsqueda con datos personales, lo prudente es dejarlo apagado. El valor de que sea opt-in es justo ese: no te obliga a escoger la conveniencia por defecto.
Cuando la IA se equivoca: conexiones falsas y cómo corregir el rumbo
Google reconoce de forma explícita que, incluso con contexto, el sistema puede fallar. Dos tipos de errores son especialmente probables: que haga asociaciones entre temas que no están relacionados o que entienda mal el contexto. Es parecido a cuando alguien ve una foto tuya con una bicicleta y asume que te apasiona el ciclismo, aunque solo fuera un alquiler turístico de un día. Con datos personales, una inferencia rápida puede sentirse más invasiva, porque no es un fallo cualquiera: es un fallo “sobre ti”.
La compañía propone mecanismos de corrección dentro de AI Mode. Si una recomendación no encaja, puedes responder con un matiz para reorientar la petición, o dejar feedback con un “thumbs down”. Es una dinámica de conversación: no se espera que acierte a la primera siempre, sino que aprenda del ajuste inmediato del usuario (fuente: Google, The Keyword). Este punto es importante para calibrar expectativas: la personalización no elimina la fricción; la desplaza hacia un diálogo donde corriges y afinas.
Quién puede usarlo desde hoy y qué límites tiene el despliegue
El acceso inicial está acotado. Desde el 22 de enero de 2026, la función empieza a llegar como experiencia de Labs para suscriptores de Google AI Pro y Google AI Ultra, en inglés y en Estados Unidos. Google indica que se habilita automáticamente a los elegibles conforme se va desplegando, y que se puede activar desde los ajustes de personalización de Search dentro del perfil, donde se gestionan las apps conectadas (fuente: Google, The Keyword).
Hay otro límite relevante: está pensada para cuentas personales de Google, no para cuentas de Google Workspace de empresa, educación o entornos enterprise. Tiene sentido si se considera el nivel de sensibilidad de correo y fotos en organizaciones, donde las políticas y obligaciones de cumplimiento son distintas.
Lo que queda por ver es cómo evolucionará fuera de ese primer perímetro: idiomas, países, tipos de cuenta, y si la experiencia mantendrá coherencia cuando el usuario tenga hábitos mezclados entre lo personal y lo laboral. Por ahora, el mensaje es claro: es un experimento controlado con un público reducido y con palancas visibles para activarlo o apagarlo.
