¿Alguna vez te has perdido en un centro comercial o en un aeropuerto gigante? Imagina lo complicado que puede ser si, además, no tienes referencias visuales para saber por dónde moverte. ¡Es todo un desafío! Y es justo esa dificultad la que enfrenta a diario una persona con deficiencia visual. Afortunadamente, la tecnología está dando pasos para hacer estos entornos más accesibles, y de la mano de la Universidad de California en Santa Cruz, llegan dos nuevas aplicaciones que podrían cambiar la forma en que estas personas navegan por espacios interiores.
Tecnología al alcance del bolsillo: la propuesta de Manduchi
El responsable detrás de esta innovación es Roberto Manduchi, profesor de Ciencias de la Computación e Ingeniería en la UC Santa Cruz. ¿Su misión? Crear tecnología accesible y útil para personas con discapacidad visual. Durante años de trabajo y colaboración con esta comunidad, Manduchi se dio cuenta de que las herramientas existentes para la navegación en interiores no eran suficientes. Y es que los espacios interiores suelen ser un caos para cualquier persona que no conozca el lugar, pero para quienes no pueden ver, es una odisea total.
La mayoría de los sistemas de navegación que dependen de GPS no funcionan bien en interiores, ya que la señal de los satélites se bloquea por las paredes de los edificios. Aquí es donde entran en juego las apps desarrolladas por Manduchi y su equipo: se valen de los sensores integrados en los smartphones —como acelerómetros y giroscopios— para rastrear los movimientos del usuario y proporcionar instrucciones habladas que les guíen a su destino. Todo esto, con el smartphone guardado en el bolsillo y sin necesidad de sacarlo, lo cual es una gran ventaja.
La importancia de mantener las manos libres
Piénsalo: una persona con deficiencia visual a menudo necesita una mano para el bastón y, en muchos casos, la otra para sostener a su perro guía. Pedirles que además sostengan un teléfono es, por decirlo suavemente, poco práctico. No solo eso, sino que también los expone a riesgos de seguridad, ya que al caminar con el móvil en la mano podrían ser blanco fácil de robos.
Las aplicaciones desarrolladas por Manduchi permiten al usuario guardar el teléfono en su bolsillo y seguir las instrucciones a través de comandos de voz. ¿Cómo lo hacen? Utilizando un mapa del edificio en combinación con las señales de los sensores del teléfono para calcular la ubicación y los giros que deben hacer. Claro, no es perfecto: hay momentos en los que el sistema podría confundirse, pero aquí es donde entra la colaboración humano-máquina. Como dice Manduchi: “Compartir la responsabilidad es lo correcto; no podemos depender solo de la tecnología para guiarnos. Igual que cuando manejas y tu GPS dice que gires, tú miras primero si realmente puedes hacerlo.”
¿Cómo se comparan estas apps con otras soluciones?
Lo cierto es que gigantes como Google y Apple ya han desarrollado sus propios sistemas de navegación interior, pero hay un problema: dependen de sensores instalados dentro de los edificios. Esto significa que no puedes usarlos en cualquier lugar, y además, mantener esta infraestructura es caro y complicado. Las apps de Manduchi no necesitan nada de eso. Simplemente, con los sensores que ya tiene cualquier smartphone, pueden hacer maravillas en cuanto a orientación se refiere.
En WWWhatsnew.com, donde seguimos de cerca el impacto de la tecnología en la vida diaria de las personas, hemos notado que este tipo de desarrollos se están convirtiendo en una tendencia muy positiva. Nos gusta ver cómo la innovación tecnológica no solo se centra en crear lo último en gadgets de lujo, sino también en resolver problemas reales de la vida cotidiana.
La promesa de un futuro más inclusivo
Además de guiar a las personas a sus destinos, una de las aplicaciones también tiene una función de “retorno seguro”, es decir, puede guiar al usuario de vuelta por el mismo camino que tomó anteriormente. Esto es útil para aquellos momentos en los que se entra a un lugar desconocido y se desea salir sin depender de nadie más. Manduchi está trabajando en hacer que sus apps sean aún más robustas, añadiendo funcionalidades basadas en IA que podrían describir el entorno usando la cámara del teléfono. Imagina que, al entrar a una sala complicada de navegar, simplemente tomes una foto y la app te diga: “a la derecha tienes una fila de sillas” o “frente a ti hay un mostrador”.
Esto no solo facilita la navegación, sino que devuelve cierta independencia a las personas con deficiencia visual, algo que valoran enormemente. Según Manduchi, las opiniones de la comunidad con deficiencia visual en Santa Cruz han sido fundamentales para pulir detalles y asegurarse de que las aplicaciones realmente se adapten a sus necesidades. Porque, como él mismo dice, “hay que ser muy cuidadoso y humilde; hay que partir de la persona que va a usar la tecnología, no de la tecnología en sí”.
¿Qué sigue para estas apps?
El equipo de Manduchi tiene grandes planes para estas aplicaciones. Están explorando la posibilidad de integrarlas con mapas descargables y crear una comunidad abierta de desarrollo para que otros puedan contribuir. Tal vez, en un futuro no muy lejano, veamos estas aplicaciones integradas en más dispositivos o colaborando con otros sistemas de navegación como los de Google o Apple.
En última instancia, esto es solo el comienzo de lo que la tecnología puede hacer por la accesibilidad. Al combinar smartphones, sensores avanzados y la creatividad de desarrolladores como Manduchi, el futuro promete ser un lugar donde todos, sin importar sus capacidades visuales, puedan moverse con mayor libertad y seguridad.