Gemini ahora crea podcasts con IA: así funciona la nueva herramienta de Google

Publicado el

Imagen conceptual surrealista y minimalista de dos figuras geométricas representando inteligencias artificiales, conversando a través de micrófonos conectados por ondas sonoras, mientras un documento holográfico emerge de una tablet, simbolizando un informe generado por la función Deep Research de Google Gemini para crear podcasts automatizados.

Google sigue ampliando las capacidades de su asistente de inteligencia artificial Gemini, y su más reciente novedad apunta directamente al consumo de información de forma auditiva. La empresa ha habilitado una nueva función que permite generar podcasts automáticos a partir de los informes detallados creados por su herramienta Deep Research. Una funcionalidad que podría transformar cómo procesamos grandes cantidades de información.

Desde WWWhatsnew.com hemos seguido de cerca el avance de la IA generativa en herramientas de productividad, y esta última incorporación nos parece especialmente interesante por su enfoque práctico. Vamos a desglosar cómo funciona, qué aporta y por qué podría cambiar tu manera de informarte.

¿Qué es exactamente Deep Research?

Antes de entrar en los podcasts generados por IA, es importante entender la base de todo: Deep Research.

Esta es una función dentro de Gemini que permite realizar investigaciones complejas sobre cualquier tema. Basta con pedirle a Gemini que profundice en una temática, y la IA se encarga de recorrer fuentes confiables en la web, resumir la información y organizarla en un informe claro y bien estructurado.

Imagina que tienes que preparar una presentación sobre las energías renovables. En lugar de pasar horas leyendo artículos, informes y estudios, le pides a Gemini un informe de Deep Research. Al poco tiempo, obtienes un documento con datos actualizados, explicaciones sencillas y enlaces de referencia.

Ahora, con la nueva opción de Audio Overview, ese informe puede convertirse automáticamente en un podcast conversacional protagonizado por dos voces de IA.

¿Cómo funcionan los “Audio Overviews”?

La idea es tan simple como útil: transformar textos largos y detallados en resúmenes hablados, con un formato que imita el tono de una charla entre dos presentadores. No se trata de una lectura robótica, sino de una conversación fluida donde los “anfitriones” explican el contenido de manera accesible, haciendo pausas, añadiendo ejemplos y resaltando los puntos clave.

Google introdujo esta función inicialmente en su app NotebookLM, una especie de cuaderno digital inteligente que ya ofrecía resúmenes hablados. Pero ahora ha llegado directamente a la aplicación de Gemini, y está disponible tanto para usuarios gratuitos como para quienes cuentan con el plan Advanced.

Desde nuestra experiencia en WWWhatsnew.com, creemos que este tipo de interfaz conversacional puede hacer que la IA sea mucho más digerible para personas que no se sienten cómodas leyendo textos extensos o técnicos.

¿Qué beneficios tiene escuchar en vez de leer?

Aunque el texto sigue siendo el formato más flexible para analizar información con detenimiento, el formato podcast tiene varias ventajas claras:

  • Aprovechas mejor tu tiempo: Puedes escuchar mientras haces otras tareas, como conducir, cocinar o hacer ejercicio.
  • Mejora la retención: Muchas personas comprenden mejor al escuchar que al leer, especialmente si el contenido se presenta con ejemplos y tono natural.
  • Accesibilidad: Para personas con dificultades visuales o problemas de concentración, el formato auditivo puede ser mucho más amigable.

Google parece haber entendido que la información no solo debe estar disponible, sino también ser fácil de consumir, y por eso apuesta por herramientas que se adapten al ritmo de vida moderno.

¿Qué tan personalizable es esta función?

Una de las ventajas de los nuevos Audio Overviews en Gemini es que no son monolíticos. Puedes interactuar con los presentadores, ajustar el nivel de detalle, cambiar el enfoque del resumen y pedir que se repitan ciertas partes o se profundice en algún punto específico.

No es simplemente darle “play”, sino que puedes guiar la conversación como si estuvieras hablando con dos expertos que adaptan el contenido a tu nivel de conocimiento o tus intereses.

En mi opinión, esto representa un paso importante hacia interfaces más humanas en las aplicaciones de inteligencia artificial. No se trata solo de responder preguntas, sino de acompañar al usuario en su proceso de comprensión.

¿Qué significa esto para el futuro del aprendizaje?

Desde WWWhatsnew.com vemos este movimiento de Google como parte de una tendencia más grande: la transformación del conocimiento en experiencias conversacionales.

Hace años, estudiar un tema implicaba leer libros o asistir a clases. Hoy, puedes tener una charla personalizada con una IA que te explica cualquier concepto, con ejemplos y tono cercano. Y ahora, también puedes escuchar esas explicaciones como si estuvieras siguiendo tu podcast favorito.

Esto no solo beneficia a estudiantes o profesionales que necesitan estar actualizados, sino también a cualquier persona curiosa que quiera aprender de forma más cómoda.

Limitaciones y aspectos a tener en cuenta

Como toda herramienta de IA, esta función no está exenta de desafíos. Aunque Gemini se basa en fuentes confiables, sigue siendo recomendable verificar la información crítica, especialmente en temas sensibles o científicos.

Otro punto a tener en cuenta es que, al tratarse de una experiencia generada, el tono y enfoque pueden variar. No siempre será equivalente a un podcast producido por expertos humanos, pero sí es una forma rápida y accesible de empezar a entender un tema.

Desde WWWhatsnew.com recomendamos utilizar esta herramienta como complemento: ideal para tener una visión general antes de profundizar con fuentes especializadas.

¿Qué se necesita para usar esta función?

Solo necesitas la app de Google Gemini, disponible para Android y en versión web, y tener activada la opción de Deep Research. Al generar un informe, aparecerá un botón para crear el Audio Overview. El resto es tan sencillo como presionar “play”.

No hace falta experiencia técnica ni conocimientos avanzados. Y lo mejor: está disponible también para usuarios gratuitos.

¿Y si quiero compartir ese podcast?

Por ahora, la opción de compartir directamente el audio está limitada, aunque es posible que Google añada esa funcionalidad pronto. Mientras tanto, puedes guardar el resumen o exportarlo en otros formatos desde la app de Gemini.

Imagínate generar un resumen sobre “cómo funciona la inteligencia artificial” y compartirlo con tus alumnos o equipo de trabajo en formato de podcast. O transformar tus propios apuntes en audios para estudiar. Las posibilidades son muchas.

¿Vale la pena probarlo?

Desde nuestra perspectiva en WWWhatsnew.com, la respuesta es sí. No solo por la innovación técnica, sino por el enfoque centrado en la experiencia del usuario.

Estamos viendo una evolución en cómo accedemos al conocimiento, y esta función de Google Gemini es un claro ejemplo de cómo la IA puede ser una herramienta útil, accesible y cercana, que se adapta a nuestras rutinas y estilos de aprendizaje.

Es como tener un profesor o periodista digital que transforma textos densos en charlas amenas. Y eso, sinceramente, tiene mucho potencial.