Google Photos potencia su edición con seis nuevas funciones impulsadas por IA

Publicado el

Google Photos potencia su edición

Google Photos acaba de sumar un conjunto de herramientas que aprovechan la inteligencia artificial para facilitar tareas de edición fotográfica que antes requerían tiempo, técnica o aplicaciones externas. La más destacada es «Help me edit», una función que permite realizar ajustes automáticos y personalizados en retratos y fotos grupales. Con un simple comando de voz o texto, el sistema puede corregir ojos cerrados o quitar gafas de sol, utilizando referencias de otras imágenes almacenadas en el mismo grupo facial del usuario. Esta capacidad no solo ahorra tiempo, sino que demuestra un nivel de personalización que hasta ahora no era común en apps de consumo masivo.

Este avance pone al alcance de cualquier persona tareas que antes estaban reservadas a editores profesionales o software complejo. Lo que hace la IA aquí es «conocer» al sujeto de la imagen mediante otras fotos y, a partir de esa información, reconstruir partes faltantes o distorsionadas con un alto grado de fidelidad. En la práctica, es como si Google Photos pudiera recordar cómo luce una persona y aplicar ese conocimiento para mejorar cualquier foto en la que aparezca.

Esta funcionalidad ya está llegando a usuarios de iOS en Estados Unidos, marcando una expansión significativa fuera del ecosistema Android.

Nano Banana y la edición creativa

Otro componente clave de esta actualización es la integración del editor Nano Banana, una tecnología que permite transformar completamente el estilo de una imagen con solicitudes abiertas. Ahora, al usar «Help me edit», se pueden pedir cambios como convertir una foto en una pintura renacentista, un mosaico o cualquier estilo que el usuario imagine. Esto lleva la edición creativa a otro nivel, permitiendo explotar la expresividad sin requerir habilidades técnicas.

Nano Banana también impulsa una nueva sección dentro de Google Photos llamada «Create with AI», donde se ofrecerán plantillas prediseñadas basadas en solicitudes populares. Estas plantillas funcionan como puntos de partida que los usuarios pueden modificar según sus gustos o necesidades. Inicialmente, esta función estará disponible en la pestaña «Crear» para Android en Estados Unidos e India.

En una segunda etapa, Google comenzará a personalizar estas plantillas en función de los intereses y temáticas frecuentes que detecte en la biblioteca del usuario. Por ejemplo, si alguien suele fotografiar paisajes de montañas, es posible que aparezcan plantillas específicas con ese tipo de entorno como base.

Ask Photos se expande globalmente

La herramienta Ask Photos, que permite realizar búsquedas en la biblioteca mediante preguntas naturales, también se fortalece con esta actualización. Tras una pausa y reactivación en junio, Google extiende el acceso a más de 100 nuevos mercados y suma soporte para 17 idiomas adicionales.

Esta función permite escribir frases como «muéstrame las fotos del cumpleaños de Clara en 2019» o «quiero ver las imágenes de la playa con sombrilla roja». La IA interpreta el contexto y los elementos visuales de las imágenes, mostrando resultados que responden a la intención, no solo a metadatos. Es como tener un motor de búsqueda adaptado a nuestros recuerdos personales, con una comprensión que trasciende los filtros tradicionales de fecha, ubicación o etiquetas.

Este despliegue masivo podría cambiar la manera en la que las personas interactúan con sus recuerdos visuales. En lugar de desplazarse manualmente por cientos de imágenes, pueden simplemente preguntar y recibir respuestas visuales inmediatas.

Nuevo botón Ask: contexto y acción directa

Dentro del mismo esfuerzo por facilitar la interacción natural con las fotos, se incorpora un nuevo botón llamado Ask. Al tocarlo, se activa una interfaz donde el usuario puede hacer preguntas sobre el contenido de la imagen que está viendo, como «¿quiénes aparecen aquí?», «¿cuándo fue tomada esta foto?», o incluso pedir ediciones específicas como «hazla en blanco y negro» o «mejora la nitidez».

Esta función va más allá de ser una simple ayuda: se convierte en una puerta de entrada a todo el ecosistema de edición y organización de Google Photos. También permite encontrar imágenes similares dentro de la biblioteca, facilitando tareas como agrupar eventos, crear álbumes o identificar momentos parecidos.

Por ahora, este botón está disponible solo en Estados Unidos, pero tanto en Android como en iOS.

Una tendencia que consolida el enfoque predictivo

Estas mejoras reflejan un cambio de paradigma en el manejo de las fotos digitales. Ya no se trata solo de almacenar y aplicar filtros, sino de contar con un asistente que entiende el contenido, las emociones y el contexto de cada imagen. Google está construyendo una experiencia donde las fotos «hablan» y responden, donde cada imagen puede ser interpretada y reutilizada con nuevos significados.

Al integrar edición, creatividad y organización bajo un mismo techo, la aplicación se posiciona como una herramienta completa que se adapta a distintos niveles de conocimiento y uso. Desde quien solo quiere mejorar una selfie hasta quienes crean collages artísticos o buscan recuerdos específicos, las nuevas funciones se ajustan de forma intuitiva.

Esto también plantea nuevos desafíos sobre privacidad, control de datos y confianza en los algoritmos, pero en términos funcionales, el avance es claro: Google Photos está evolucionando hacia un asistente visual inteligente más que una simple galería.