Una web para ver qué piensa una Inteligencia Artificial de nuestro rostro

Publicado el

No cabe duda que la inteligencia artificial ha ido sofisticando cada vez más su funcionamiento en lo que respecta al reconocimiento facial. Sin embargo, para la mayoría de nosotros, aún resulta desconocida y compleja la manera como esta actúa al momento de analizar una imagen.

A fin de comprender un poco mejor la dinámica llevada a cabo por la inteligencia artificial al momento de analizar una foto, una aplicación de nombre ImageNet Roulette permite a los usuarios subir una selfie a su interfaz y descubrir como ésta es percibida por la inteligencia artificial.

Esto lo hace a través de la asignación de etiquetas descriptivas con las cuales la imagen es asociada, muy similar a lo sucedido en Facebook cuando se produce una caída parcial y las imágenes no cargan, mostrando en su lugar palabras para describir el contenido de las mismas.

Es así como al momento de subir una foto o grabarnos con la webcam, ImageNet Roulette toma algunos segundos para procesar la imagen y luego aplicar sobre ella etiquetas, titulándola con palabras genéricas como “alguien, persona, individuo, mortal” hasta ir reduciéndose a términos más específicos como “agente de seguros, hombre de negocios o capitalista”.

Trevor Paglen y Kate Crawford fueron los responsables en gestar esta aplicación, presentándola posteriormente durante una exposición llevada a cabo en la Fondazione de Milán.

Su nombre proviene del dataset ImageNet, donde se encuentran más de 14 millones de imágenes etiquetadas. Cualquier investigador puede tener acceso de forma totalmente gratuita a dicha base de datos, teniendo la oportunidad de explorar 2883 categorías enlazadas a fotos de personas.

A través del uso estas fotos, la red neuronal de ImageNet Roulette fue entrenada lo suficiente hasta alcanzar el punto en el cual fuese capaz de generar las descripciones que observamos sobre la imagen al momento de usar la aplicación.

Sin embargo, ImageNet tiene una serie de categorías extrañas, ofensivas y problemáticas, lo cual, está ligado al motivo de Paglen y Crawford de incluir este software en la exposición. De acuerdo con ellos, una inteligencia artificial sin importar lo bien diseñada que este, será susceptible de generar sesgos raciales si los datos suministrados son corruptos o de mala calidad, haciendo referencia con ello al dataset de ImageNet.

Podéis probarlo en imagenet-roulette.paglen.com.