WWWhat's new

Google lanza chatbot con IA para niños menores de 13 años: una propuesta que genera debate

Ilustración surrealista de un niño interactuando con un ser de inteligencia artificial en un paisaje onírico digital

Google ha anunciado que su asistente conversacional con inteligencia artificial, Gemini, estará disponible para niños menores de 13 años que utilicen cuentas gestionadas por sus padres mediante la herramienta Family Link. Esta decisión ha despertado tanto expectativas como preocupaciones entre expertos en tecnología, educación y protección infantil.


Qué es Gemini y cómo llegará a los más pequeños

Gemini es el chatbot con IA de Google, sucesor del modelo Bard, que responde preguntas, genera textos, ayuda con tareas y conversa de manera fluida. Hasta ahora estaba limitado a mayores de 13 años, pero esta nueva actualización permite su uso por parte de menores con cuentas supervisadas.

Estas cuentas funcionan dentro del ecosistema Family Link, una herramienta que da a los padres control sobre el tiempo de pantalla, accesos a apps, y ahora, sobre la interacción con Gemini. En palabras de Google, «Gemini estará pronto disponible para su hijo», según un correo enviado recientemente a las familias.


Las oportunidades educativas

Desde un enfoque optimista, esta iniciativa podría facilitar nuevas formas de aprendizaje interactivo. Imagina un niño de ocho años preguntando por qué el cielo es azul o cómo funciona el sistema solar y obteniendo respuestas adaptadas a su edad. En vez de depender de búsquedas caóticas en la web, contaría con un compañero virtual que responde al instante.

Gobiernos como el de EE. UU. han promovido el uso de herramientas de IA en la educación para hacerla más accesible y personalizada. La idea es que el contenido se adapte al ritmo de cada estudiante y que los docentes cuenten con apoyo digital.


Preocupaciones por el impacto emocional y la seguridad

Pero no todo son ventajas. Expertos como James Steyer, fundador de Common Sense Media, advierten que los «compañeros sociales con IA» pueden no ser seguros para menores. «Están diseñados para generar apego emocional y dependencia», una combinación riesgosa para cerebros en desarrollo.

Un informe reciente de esta organización concluyó que las herramientas de IA generativa pueden emitir respuestas perjudiciales, incluyendo consejos peligrosos, contenido inapropiado y refuerzos de estereotipos. Las pruebas mostraron que incluso sistemas bien entrenados pueden fallar, especialmente cuando se enfrentan a preguntas sensibles.

La preocupación se agudizó tras un caso relacionado con Meta, cuyo bot permitía «juegos de rol románticos» con conversaciones sexualmente explícitas entre cuentas supuestamente infantiles. Este precedente ha encendido las alarmas sobre los controles que deben implementarse.


Lo que dice Google al respecto

Google reconoce que Gemini puede cometer errores. En su comunicación a los padres, enfatiza la importancia de enseñar a los niños a verificar la información que reciben. También aclara que se enviarán notificaciones a los tutores cuando los menores accedan al chatbot por primera vez.

En cierta forma, esto convierte la interacción con Gemini en una oportunidad para educar sobre pensamiento crítico y alfabetización digital. Sin embargo, es una apuesta que requiere un rol activo de los padres, quienes muchas veces carecen del tiempo o conocimientos para supervisar el uso constante de estas tecnologías.


¿Sustitutos de maestros o aliados en el aula?

Algunas voces, como la de la experta en IA responsable Bhumika Mahajan, advierten que el objetivo final podría ser reemplazar a los profesores con chatbots. «Harán todo: decidir el currículo, dar clases, corregir tareas», señala. Para Mahajan, esto no es necesario ni conveniente. Lo ideal sería un uso limitado y siempre bajo vigilancia humana.

Aunque automatizar ciertos aspectos podría aliviar la carga docente, la educación no se trata solo de transmitir información. Los maestros ofrecen empatía, adaptan estrategias según cada alumno, detectan problemas emocionales y fomentan valores sociales. Ningún bot puede sustituir eso.


El equilibrio entre innovación y protección infantil

El caso de Gemini plantea una cuestión clave: ¿pueden los niños usar herramientas de IA sin poner en riesgo su bienestar? Como con muchos avances tecnológicos, la clave está en el equilibrio. No se trata de prohibir, sino de acompañar, supervisar y formar tanto a menores como a adultos.

Es urgente que las grandes tecnológicas adopten estándares más estrictos de seguridad, transparencia y control parental. Y que los gobiernos y colegios integren la educación digital como un eje central, no como un complemento.

Al final, la pregunta no es si los niños deben hablar con bots, sino cómo garantizamos que esa conversación sea segura, educativa y humana.

Salir de la versión móvil