Google Gemini: Ahora puedes hacer preguntas con videos y lo que ves en tu pantalla

Publicado el

Ilustración minimalista de Google Gemini, representando su capacidad de análisis de videos y pantallas con inteligencia artificial en tiempo real.

Google sigue avanzando en la evolución de su asistente de inteligencia artificial, Gemini, con la incorporación de nuevas funciones que permitirán a los usuarios interactuar con él de maneras más naturales e intuitivas. Durante el Mobile World Congress (MWC) 2025 en Barcelona, la compañía presentó dos herramientas clave: Screenshare y la capacidad de realizar consultas en tiempo real a partir de videos.

La función Screenshare: Interacción en tiempo real con tu pantalla

Una de las novedades más destacadas es Screenshare, una función que permite a los usuarios compartir en tiempo real lo que están viendo en sus pantallas con Gemini y hacer preguntas al respecto.

Imagina que estás navegando en una tienda en línea buscando unos jeans holgados. Con Screenshare, puedes mostrarle a Gemini la página del producto y preguntarle qué prendas combinarían mejor con esos jeans. En segundos, el asistente analizará la imagen y te dará sugerencias de moda basadas en tendencias actuales.

Esta función no solo se limita a compras, sino que también puede utilizarse en otras situaciones cotidianas, como entender información en un gráfico, recibir ayuda para completar un formulario en línea o incluso traducir un texto que aparece en una imagen en otro idioma.

Búsqueda con video: Preguntas en tiempo real mientras grabas

Otra característica presentada es la posibilidad de hacer preguntas a partir de videos en tiempo real. Esta funcionalidad, que Google ya había adelantado en Google I/O 2024, ahora se materializa con un enfoque práctico.

Por ejemplo, supongamos que estás grabando un video de una receta de cocina y te surge una duda sobre algún ingrediente o procedimiento. Ahora, puedes simplemente preguntar a Gemini mientras sigues grabando, y el asistente responderá basándose en la información del video.

Esto abre una amplia gama de aplicaciones: desde ayudar a estudiantes a entender conceptos en clases en línea hasta ofrecer explicaciones sobre cómo reparar un dispositivo mientras se graba el proceso.

Disponibilidad y acceso

Ambas funciones estarán disponibles inicialmente para los usuarios de Gemini Advanced, que forman parte del Google One AI Premium Plan en dispositivos Android. Se espera que la implementación comience a finales de este mes y que en los próximos meses se extienda a más usuarios y dispositivos.

Desde WWWhat’s New, creemos que este tipo de avances llevan la inteligencia artificial un paso más allá, haciendo que su uso sea cada vez más intuitivo y útil en la vida diaria. La posibilidad de interactuar con un asistente digital de una manera más visual y dinámica podría cambiar por completo la forma en que las personas acceden y procesan información en línea.

¿Qué sigue para Gemini?

Estas mejoras en Gemini nos hacen preguntarnos qué otras innovaciones traerá Google en el futuro. Con el auge de la IA multimodal, es probable que veamos más funciones que combinen texto, imagen, audio y video en un solo flujo de interacción. Además, podríamos esperar una integración más profunda con otros servicios de Google, como Google Lens, Google Search y Google Assistant.

Sin duda, estamos presenciando una evolución en la manera en que interactuamos con la tecnología. Gemini está marcando el camino hacia una IA más intuitiva, personalizada y adaptable a las necesidades del usuario.