Durante algún tiempo IDEMIA, empresa francesa responsable en el desarrollo de un software de reconocimiento facial, usado tanto por las autoridades policiales de Francia, así como de los Estados Unidos y Australia, ha estado obteniendo un gran prestigio en el sector, gracias a la sofisticación y precisión presentada por su aplicación en la detección de rostros.
Sin embargo, durante una prueba realizada en julio en el Instituto Nacional de Estándares y Tecnología (NIST por sus siglas en inglés), se pudo comprobar que el software de IDEMIA presentó fallos en sus funciones de reconocimiento en el que, sus más recientes algoritmos, tendían a cometer errores al analizar rostros de mujeres de piel negra respecto a los rostros de mujeres blancas.
Los algoritmos fueron sometidos a prueba en el sentido de verificar si dos fotos mostraban el mismo rostro, simulando la acción llevada a cabo por un agente fronterizo al momento de revisar un pasaporte. Tras haber efectuado la prueba un número considerable de veces, se pudo concluir que los algoritmos de IDEMIA compararon los rostros de diferentes mujeres blancas de manera errónea en proporción de una por cada 10 mil, mientras que con los rostros de mujeres de piel negra el margen de error fue de una por cada 1000, 10 veces más que la muestra de rostros blancos.
Esta prueba, en conjunto con otras realizadas bajo el mismo enfoque, han determinado de manera reiterada, que los algoritmos pueden tener problemas cuando se trata de analizar rostros de personas con piel oscura.
En relación al informe de julio del NIST, este fue realizado tomando en consideración pruebas de código de más de 50 compañías que obtuvieron el mismo resultado en cuanto al margen de error presentado en el reconocimiento de rostros de piel blanca y oscura. Junto con esto, también se determinó que el software de reconocimiento puede tener más posibilidades de fallo en mujeres que en hombres, situación que puede atribuirse en parte al uso del maquillaje en ellas.
En el informe se indicó que los hombres blancos constituyen el grupo demográfico con la tasa de coincidencia falsa más baja.
Se espera que para este otoño el NIST presente un reporte detallado explicando el comportamiento de esta tecnología en diferentes grupos demográficos.