La Universidad de Washington ha sido el escenario de un importante avance en el campo del audio inteligente. Un equipo de investigadores, bajo la dirección del profesor Shyam Gollakota, ha desarrollado una tecnología que permite a los usuarios de auriculares con cancelación de ruido seleccionar los sonidos que desean permitir a través de su dispositivo personal. Este enfoque innovador, conocido como audición semántica, representa un salto cualitativo en la forma en que interactuamos con el entorno sonoro.
La tecnología funciona mediante la transmisión de audio capturado a un smartphone, que se encarga de anular los ruidos del entorno. A través de una interfaz intuitiva, ya sea por comandos de voz o mediante una aplicación, los usuarios pueden escoger entre una variedad de sonidos cotidianos, desde el llanto de un bebé hasta el canto de los pájaros, pasando por señales de alarma o conversaciones humanas. Este sistema no solo mejora la experiencia auditiva sino que también aumenta la seguridad del usuario, permitiendo la inclusión de sonidos importantes como sirenas o alarmas.
Una de las claves de esta tecnología es su capacidad para procesar sonidos en fracciones de segundo, garantizando así una sincronización perfecta con el sentido visual. Esta rapidez es esencial para evitar desfases que podrían resultar desconcertantes o incluso peligrosos para el usuario. Por ello, el procesamiento se realiza directamente en el smartphone conectado, evitando la latencia que implicaría el uso de servidores en la nube.
Además de la rapidez, el sistema mantiene las señales espaciales y los retrasos naturales del sonido, lo que permite a los usuarios localizar la fuente de los sonidos seleccionados y mantener una percepción ambiental coherente.
En pruebas realizadas en diversos entornos, desde oficinas hasta parques urbanos, la tecnología ha demostrado su eficacia al aislar sonidos específicos, mejorando la calidad de la experiencia auditiva según los usuarios que participaron en la evaluación.
A pesar de su eficacia, la tecnología enfrenta desafíos, como la dificultad para diferenciar entre sonidos con características acústicas similares. Los investigadores sugieren que la incorporación de más datos del mundo real podría afinar aún más la precisión del sistema.
El proyecto ha contado con la colaboración de expertos como Bandhav Veluri, Malek Itani, Justin Chan y Takuya Yoshioka, y se anticipa el lanzamiento de una versión comercial que podría cambiar la forma en que los usuarios interactúan con su entorno sonoro.
Tenéis más información en dl.acm.org