WWWhat's new

EyeMusic permite convertir las imágenes en melodí­as para las personas invidentes

Puede que no seamos lo suficientemente conscientes de todo lo que la tecnologí­a nos está facilitando en nuestras vidas, pero la tecnologí­a está ahí­ para ayudarnos en el momento en el que la necesitemos, a todos. Un claro ejemplo lo tenemos con EyeMusic, una aplicación móvil pensada para que las personas invidentes desde su nacimiento puedan «ver» las escenas a través de las notas musicales en forma de melodí­as, es decir, las melodí­as estarán compuestas en relación a las escenas en el que se mueven dichas personas.

Amir Amedi, neurocientí­fico y director del laboratorio de investigación multisensorial en la Universidad Hebrea de Jerusalén, es el principal desarrollador de esta aplicación móvil. Si bien ya existí­an sistemas de sustitución sensorial desde 1960, la tecnologí­a de entonces hací­a inviable emplearla en el uso diario, aunque a dí­a de hoy, gracias a los teléfonos móviles inteligentes, ya no se hace necesario llevar consigo ordenadores que procesen la información. Con esta aplicación de sustitución sensorial, que Amedi y su equipo han desarrollado, las personas invidentes tan sólo deberán ejecutarla en sus teléfonos móviles inteligentes y conectar en ellos sus propios auriculares.

La aplicación ya se encarga de tomar imágenes cada dos segundos y procesar dichas imágenes pí­xel a pí­xel, donde como afirma Amedi, «es un poco como funcionan los televisores viejos», ya que cada pí­xel contiene múltiples señales auditivas que corresponden a diferentes bits de información visual, que luego se montan en una composición visual.

Su modo de funcionamiento es la siguiente, las notas que suenan antes corresponden a las cosas situadas a la izquierda de la escena, y las notas que suenan después se corresponden con las cosas disponibles a la derecha. La altura es establecida por los niveles de la señal sonora, de forma que conforme más alta sea una nota significa que está disponible en la parte superior de la escena, y la nota más baja en la parte inferior de la misma. Para diferenciar los colores se emplea distintos instrumentos, de manera que el blanco es representado por las voces humanas, el azul por una trompeta, el amarillo por un violí­n y el rojo por los acordes de reggae reproducido en un órgano.

Como señala en el artí­culo de National Geographic, las personas deberán pasar unas 70 horas de entrenamiento para dominar las distintas notas. Con este entrenamiento, aprenderán a identificar varias categorí­as de objetos, ya sean rostros, cuerpos y paisajes, donde cada uno de ellos son procesados en un área diferente de la corteza visual del cerebro, según comenta Amedi, señalando que cada categorí­a tiene su propio conjunto de caracterí­sticas únicas.

Los estudios llevados a cabo por el equipo de Amedi demuestran que las personas que son invidentes desde nacimiento y hacen uso de EyeMusic para «ver», se activan las mismas áreas de procesamiento de categorí­as dependiente del cerebro que las de las personas que si pueden ver.

Salir de la versión móvil