Google acaba de presentar Personal Intelligence, una función que permite que Gemini responda de forma más personalizada conectándose a información de tu cuenta, como Gmail, Google Photos, Search y tu historial de YouTube. La promesa suena muy tentadora: que el asistente deje de ser un “buscador con esteroides” y empiece a comportarse como alguien que entiende tu contexto y tus rutinas, sin que tengas que explicar cada detalle desde cero.
La idea central es sencilla: si el asistente puede mirar (con tu permiso) lo que ya existe en tus servicios de Google, puede darte respuestas más útiles y ajustadas. Es parecido a pedirle ayuda a una persona que ya conoce tus preferencias, tu calendario, tus viajes y tu forma de organizarte. La diferencia es que aquí ese conocimiento no viene de convivir contigo, sino de conectar fuentes digitales que ya has usado durante años.
Según Google, esta opción llega como beta en Estados Unidos, con un despliegue gradual para ciertos suscriptores de pago, y requiere opt-in: está desactivada por defecto y tienes que activarla de manera explícita. La compañía lo explica en un texto firmado por Josh Woodward, vicepresidente de Google Labs, Gemini y AI Studio, y también se ha comentado en medios como The Verge.
Qué cambia frente a la personalización “de antes”
Google no parte de cero. Ya existía la posibilidad de que su chatbot se conectara a apps y servicios de la cuenta para recuperar datos. La novedad es el salto de “recuperar” a “razonar”.
En la práctica, antes solías tener que pedirle algo como “busca en mi Gmail” o “mira en Photos”. Con Personal Intelligence, Gemini puede combinar información de diferentes fuentes para construir una respuesta más completa sin que tengas que indicar, paso a paso, dónde mirar. Es como cuando estás en casa buscando unas llaves: si alguien sabe que ayer dejaste una chaqueta en el sofá y que el bolsillo derecho suele ser tu “cajón desastre”, no necesita que le digas “ve al sofá y revisa la chaqueta”; va directo a la hipótesis más probable.
Google también enmarca esta función dentro de su nueva generación de modelos, Gemini 3, que serían los encargados de sostener esa capacidad de razonamiento cruzado entre texto, fotos y vídeo, según la propia compañía.
Ejemplos cotidianos: del taller de neumáticos a las vacaciones
Google ha elegido un ejemplo muy “de vida real” para explicarlo: una situación en un taller, esperando turno, con la típica duda tonta que se vuelve enorme porque estás lejos del coche. En el relato de Woodward, necesitaban neumáticos nuevos para una Honda de 2019 y no recordaban el tamaño. Gemini no solo aporta la especificación, sino que propone opciones para distintos usos (conducción diaria o condiciones de clima más exigentes) y lo hace usando como contexto que la familia realiza viajes por carretera, algo que el sistema habría inferido a partir de recuerdos o fotos del viaje en Google Photos.
En la misma escena, aparece otra necesidad práctica: el número de matrícula. En lugar de abandonar la fila o ponerse a rebuscar, el usuario le pregunta a Gemini y el asistente lo extrae de una foto guardada en Photos. Incluso, según el ejemplo, ayudaría a identificar el “trim” (la versión exacta del modelo) consultando correos en Gmail.
Más allá del coche, Google dice que el sistema ya está siendo útil para recomendaciones de libros, series, ropa y viajes, y para organizar planes como unas vacaciones de primavera. La clave, en su planteamiento, es que Gemini puede apoyarse en el historial de intereses y experiencias previas para evitar sugerencias genéricas. Dicho de otro modo: en lugar de proponerte “lo típico que le sirve a cualquiera”, intenta acercarse a “lo que te encaja a ti”.
Dónde está la magia: Connected Apps y el razonamiento entre fuentes
El engranaje se resume en una función: Connected Apps. Cuando la activas, eliges qué servicios conectas y, con eso, Gemini puede mezclar piezas de información provenientes de cada uno.
Hay dos capacidades que Google destaca como “núcleo” de Personal Intelligence. La primera es la recuperación de detalles específicos, como un dato dentro de un correo o un elemento visible en una foto. La segunda es el razonamiento a través de fuentes complejas, que es donde se vuelve interesante: combinar señales de texto (Gmail o Search), imágenes (Photos) y consumo (YouTube) para inferir contexto y darte respuestas que parezcan pensadas “para ti”.
Para entenderlo sin tecnicismos, imagina un cajón con recibos, fotos impresas y un cuaderno de notas. Si le preguntas a alguien “¿qué regalo le gustó más a mi padre el año pasado?”, esa persona podría mirar el recibo, recordar la foto donde sale sonriendo y cruzarlo con la nota donde escribiste “le encantó”. Personal Intelligence busca replicar ese tipo de cruce, pero con tu historial digital.
Privacidad y control: lo que promete Google y lo que conviene mirar con lupa
Google insiste en que el diseño tiene la privacidad “en el centro”. Las promesas más importantes son tres: la función está apagada por defecto, tú decides qué apps conectas y puedes desactivarla cuando quieras. También afirma que los datos se quedan dentro del ecosistema de Google, sin que tengas que “enviar información sensible a otro sitio” para obtener personalización.
Un punto relevante es la trazabilidad: la compañía dice que Gemini intentará referenciar o explicar de dónde salió una respuesta dentro de tus fuentes conectadas, para que puedas verificarla. Si no lo hace, podrías pedirle más detalles. Y si quieres evitar la personalización en una conversación puntual, plantean dos vías: regenerar una respuesta “sin personalización” o usar chats temporales.
También mencionan “guardrails” para temas sensibles. Por ejemplo, Gemini intentaría no hacer suposiciones proactivas sobre datos delicados como salud, aunque sí podría hablar de ello si se lo pides.
Ahora viene la parte que más inquieta a mucha gente: el entrenamiento. Google afirma que no entrena directamente con el contenido de tu Gmail o tu biblioteca de Photos. En su explicación, las fotos y correos del ejemplo no se usan para “enseñar” al modelo, sino para “referenciar” y generar la respuesta en ese momento. Lo que sí se usaría, según Google, es información más limitada como tus prompts (lo que escribes) y las respuestas del sistema, tras aplicar medidas de filtrado u ofuscación de datos personales.
En el fondo, la diferencia que intentan dibujar es esta: no quieren que el sistema “aprenda” tu matrícula como conocimiento general, sino que entienda cómo encontrarla cuando la necesitas. La metáfora sería la de un bibliotecario: no se memoriza todos los libros, pero sabe buscar rápido en el catálogo. Aun así, para el usuario la sensación puede ser similar: el asistente “sabe” cosas muy íntimas porque tiene acceso a las fuentes donde viven.
Riesgos reales: errores, “sobrepersonalización” y malentendidos emocionales
Google reconoce limitaciones y pide feedback. Hablan de respuestas inexactas y de un fenómeno especialmente delicado: la over-personalization, cuando el modelo conecta puntos que en realidad no están relacionados.
Esto importa porque la personalización funciona a base de patrones, y los patrones a veces son tramposos. El ejemplo que pone Google es muy humano: tener muchas fotos en un campo de golf podría llevar a la IA a asumir que te encanta el golf, cuando quizá solo acompañas a alguien que quieres. Es el típico caso en el que una estadística confunde la motivación. Como cuando Spotify insiste con un estilo musical porque una tarde dejaste una playlist puesta en una fiesta: para el algoritmo, eso fue “amor verdadero”; para ti, fue “había invitados”.
También mencionan problemas con matices y cambios en relaciones personales, como divorcios, donde el contexto puede variar rápido y el sistema quedarse con una foto antigua de la situación. Google propone una corrección directa (“no me gusta el golf”, “prefiero ventanilla”) como forma de ajustar el comportamiento.
Quién lo recibe y cómo se activa
En el anuncio, Google explica que el acceso empieza con un despliegue gradual de aproximadamente una semana para usuarios elegibles en Estados Unidos, enfocado en suscriptores Google AI Pro y Google AI Ultra, y que funcionaría en web, Android e iOS. También indican que, por ahora, es para cuentas personales, no para Google Workspace (empresas, educación o entornos corporativos). La compañía dice que su intención es ampliar con el tiempo a más países y, eventualmente, a la versión gratuita, y que también llegará a AI Mode en Search.
Para activarlo, el camino que describe Google es: ir a ajustes de Gemini, entrar en Personal Intelligence y elegir Connected Apps para vincular Gmail, Photos y el resto.
El punto clave: utilidad frente a exposición
Personal Intelligence apunta a un tipo de asistente que deja de ser “una herramienta” y se vuelve “una ayuda personal”. Si te funciona, es como tener un copiloto que recuerda lo que tú no recuerdas, te sugiere opciones con contexto y reduce fricción en tareas pequeñas que, sumadas, consumen muchísimo tiempo.
El precio de esa comodidad es abrir una ventana, aunque sea controlada, a datos que suelen ser íntimos: correos, fotos, historial de búsquedas y consumo. Google promete control, transparencia y límites de entrenamiento. Aun así, el criterio práctico para el usuario es preguntarse qué tipo de personalización quiere y cuál le incomoda. Hay quien disfrutará de recomendaciones de viajes basadas en fotos familiares; hay quien preferirá que su asistente sea listo, pero no tanto.
