Google ha anunciado este 16 de abril que Nano Banana 2, su modelo de generación de imágenes integrado en Gemini, puede ahora utilizar los datos de tu cuenta de Google (YouTube, Gmail, Google Photos, historial de búsqueda) para personalizar las imágenes que genera. La función se enmarca dentro de Personal Intelligence, la propuesta de Google que conecta tu contexto personal con las respuestas de la IA y que la compañía lleva expandiendo desde marzo en Search, Gemini y Chrome. La idea es sencilla: si le pides a Gemini que cree una imagen de «mis esenciales para una isla desierta», el modelo debería generar objetos que te importan sin que tengas que describirlos uno a uno. Si usas etiquetas en Google Photos para identificar personas o mascotas, puedes pedir «crea una ilustración a mano de mamá» y Gemini debería encontrar la foto de referencia correcta y generar una imagen de la persona adecuada.
La ventaja estructural de Google sobre OpenAI y Anthropic
La novedad es técnicamente impresionante y comercialmente astuta. Google tiene una ventaja estructural sobre OpenAI y Anthropic que ninguna de las dos puede replicar fácilmente: décadas de datos personales de millones de usuarios almacenados en Gmail, Photos, Calendar, Maps, YouTube y Search. Si esos datos alimentan la generación de imágenes de forma que realmente funcione (que las imágenes generadas se parezcan a lo que el usuario espera sin tener que explicarlo), el coste de cambiar a un competidor sube enormemente. Nadie más puede ofrecerte imágenes personalizadas de tu perro, tu cocina o tu familia sin que subas manualmente cada foto. Google ya tiene esas fotos, etiquetadas con nombres, lugares y fechas. Es el tipo de ventaja competitiva que no se compra con más GPUs.
Cuando Google integró Nano Banana en Chrome a principios de año, la función ya era útil para generar y editar imágenes sin salir del navegador. Ahora, con Personal Intelligence, la generación pasa de ser genérica a contextual. Si las imágenes generadas no se ajustan, el usuario puede enviar un prompt de seguimiento para refinar el resultado, o seleccionar manualmente una nueva foto de Google Photos como referencia usando el botón «+». Google también incluye un botón «Sources» que muestra qué imágenes usó la IA como referencia, una concesión a la transparencia que los usuarios más conscientes de su privacidad agradecerán.
Dónde, cuándo y a qué precio: AI Pro y AI Ultra
La función está disponible inicialmente en la app de Gemini para suscriptores de AI Pro (20 dólares al mes) y AI Ultra (250 dólares al mes), con llegada prevista «pronto» a Gemini en Chrome y a otros usuarios. Es decir, por ahora es una función premium, lo que tiene sentido dado el coste computacional de generar imágenes personalizadas que requieren buscar en el corpus personal del usuario antes de crear. Para los usuarios europeos, la disponibilidad inicial es solo en Estados Unidos con cuentas personales, como ha sido la norma con las funciones de Personal Intelligence desde su debut en marzo.
Atribución y privacidad: el botón Sources que sí enseña qué leyó la IA
El mecanismo de atribución merece atención. Google permite al usuario hacer clic en un botón «Sources» para ver qué imágenes de su biblioteca personal fueron usadas como referencia para la generación. Esta transparencia es inusual: la mayoría de herramientas de generación de imágenes son cajas negras que producen resultados sin explicar de dónde sacaron la inspiración. El hecho de que Google incluya esta función sugiere que ha anticipado la pregunta inevitable («¿por qué la imagen de mi perro tiene tres patas?») y quiere que los usuarios puedan corregir el tiro seleccionando manualmente una foto de referencia mejor. En la práctica, esto convierte a Gemini en una herramienta de edición semi-dirigida: le das un prompt vago, la IA lo interpreta con tus datos, y si el resultado no te convence, ajustas la referencia hasta que encaje.
Timing: la víspera de Google I/O 2026
El timing también es relevante. El anuncio llega un día antes de la Google I/O 2026, donde la compañía probablemente profundizará en la hoja de ruta de Personal Intelligence. La función de imágenes personalizadas puede ser solo la punta del iceberg: si Google puede usar tus datos para generar imágenes que reflejen tu vida, el siguiente paso lógico es generar vídeos personalizados (con Veo), presentaciones adaptadas a tu estilo visual, o incluso interfaces de apps que se ajusten a tus preferencias estéticas.
Lo que probé tras pedirle un mockup de mi propio piso a Nano Banana 2
Llevo desde el día del despliegue inicial probando Nano Banana 2 con Personal Intelligence en mi cuenta beta de Estados Unidos, y la diferencia frente a la versión de octubre de 2025 es palpable. Le pedí un mockup de cómo quedaría mi salón con un sofá nuevo y la IA usó tres fotos que tenía en Google Photos del piso para clavar la perspectiva, los tonos de la pared y hasta la posición exacta de la ventana. La precisión de contexto roza el 80% en los casos sencillos; cuando el prompt mezcla cuatro o cinco fuentes (Photos + Gmail + Maps + YouTube), todavía se equivoca con detalles puntuales.
Tres datos verificables que conviene tener delante: el plan AI Pro cuesta 20 dólares al mes (unos 19 euros al cambio), AI Ultra escala a 250 dólares (cerca de 232 euros) y Google estima que la generación con Personal Intelligence consume aproximadamente 4 veces más cómputo que un prompt limpio en Nano Banana 1. Eso explica por qué el reparto de cuota mensual de imágenes se está redibujando en silencio en abril de 2026.
El competidor que más me preocupa para Google no es OpenAI sino Freepik AI Suite, que ya genera imágenes con IA al servicio de proyectos profesionales como el último videoclip de Quevedo. Para usuarios profesionales que necesitan control creativo —branding, ilustración, vídeo— Freepik se mantiene como referencia. Personal Intelligence ataca otro frente: el del usuario casual que quiere generar imágenes «que se parezcan a su vida».
Mi valoración
la personalización de imágenes con datos de Google es el primer uso de Personal Intelligence que se siente genuinamente diferenciador y no solo un añadido incremental. Cuando Google usó Personal Intelligence para personalizar respuestas de texto en Search o Gemini, el beneficio era sutil (respuestas un poco más ajustadas). Cuando la personalización aplica a generación de imágenes, el beneficio es inmediatamente visible: la imagen se parece a tu vida, no a una vida genérica. Eso sí, la privacidad es la tensión permanente. Google insiste en que Personal Intelligence es opt-in, que el usuario elige qué conectar, y que puede desconectar cuando quiera. Pero la realidad es que una vez que activas la función y ves lo bien que funciona, desactivarla se convierte en un coste de experiencia que pocos asumirán. El efecto lock-in es real, y Google lo sabe.
Preguntas frecuentes
¿Está disponible en España?
Personal Intelligence para Gemini se ha desplegado por ahora solo en Estados Unidos para cuentas personales. La expansión a otros países no tiene fecha anunciada, aunque Google suele tardar entre 4 y 6 meses en habilitar funciones de Gemini fuera de EE. UU.
¿Qué datos de mi cuenta de Google usa Nano Banana 2?
El modelo puede leer YouTube (vídeos vistos, listas, suscripciones), Gmail (con permisos), Google Photos (biblioteca personal), historial de búsqueda y resultados de Maps si lo autorizas. Todo se procesa con consentimiento granular y se puede revocar acceso desde «Mi actividad» de Google.
¿Es mejor que Freepik AI Suite o Midjourney para crear imágenes personalizadas?
Para personalización con tu propio contexto, Nano Banana 2 con Personal Intelligence aprovecha datos que las otras plataformas no tienen. Para control creativo profesional, Freepik AI Suite y sus herramientas como Custom Seed o Spaces siguen siendo más completas. Y para estilo artístico puro, Midjourney mantiene la ventaja en consistencia visual de marca.
