Puede que no seamos lo suficientemente conscientes de todo lo que la tecnología nos está facilitando en nuestras vidas, pero la tecnología está ahí para ayudarnos en el momento en el que la necesitemos, a todos. Un claro ejemplo lo tenemos con EyeMusic, una aplicación móvil pensada para que las personas invidentes desde su nacimiento puedan «ver» las escenas a través de las notas musicales en forma de melodías, es decir, las melodías estarán compuestas en relación a las escenas en el que se mueven dichas personas.
Amir Amedi, neurocientífico y director del laboratorio de investigación multisensorial en la Universidad Hebrea de Jerusalén, es el principal desarrollador de esta aplicación móvil. Si bien ya existían sistemas de sustitución sensorial desde 1960, la tecnología de entonces hacía inviable emplearla en el uso diario, aunque a día de hoy, gracias a los teléfonos móviles inteligentes, ya no se hace necesario llevar consigo ordenadores que procesen la información. Con esta aplicación de sustitución sensorial, que Amedi y su equipo han desarrollado, las personas invidentes tan sólo deberán ejecutarla en sus teléfonos móviles inteligentes y conectar en ellos sus propios auriculares.
La aplicación ya se encarga de tomar imágenes cada dos segundos y procesar dichas imágenes píxel a píxel, donde como afirma Amedi, «es un poco como funcionan los televisores viejos», ya que cada píxel contiene múltiples señales auditivas que corresponden a diferentes bits de información visual, que luego se montan en una composición visual.
Su modo de funcionamiento es la siguiente, las notas que suenan antes corresponden a las cosas situadas a la izquierda de la escena, y las notas que suenan después se corresponden con las cosas disponibles a la derecha. La altura es establecida por los niveles de la señal sonora, de forma que conforme más alta sea una nota significa que está disponible en la parte superior de la escena, y la nota más baja en la parte inferior de la misma. Para diferenciar los colores se emplea distintos instrumentos, de manera que el blanco es representado por las voces humanas, el azul por una trompeta, el amarillo por un violín y el rojo por los acordes de reggae reproducido en un órgano.
Como señala en el artículo de National Geographic, las personas deberán pasar unas 70 horas de entrenamiento para dominar las distintas notas. Con este entrenamiento, aprenderán a identificar varias categorías de objetos, ya sean rostros, cuerpos y paisajes, donde cada uno de ellos son procesados en un área diferente de la corteza visual del cerebro, según comenta Amedi, señalando que cada categoría tiene su propio conjunto de características únicas.
Los estudios llevados a cabo por el equipo de Amedi demuestran que las personas que son invidentes desde nacimiento y hacen uso de EyeMusic para «ver», se activan las mismas áreas de procesamiento de categorías dependiente del cerebro que las de las personas que si pueden ver.