Problemas con la Inteligencia Artificial en vigilancia en el transporte público de Londres

Publicado el

transporte público londres

El tema de la inteligencia artificial (IA) aplicada a la vigilancia en el transporte público de Londres es, sin duda, un filo de doble cara. Por un lado, Transport for London (TfL) ha implementado un sistema de IA en cámaras para detectar infracciones como saltarse el pago del billete o llevar bicicletas en el metro, un esfuerzo que a primera vista parece alinearse con la mejora de la seguridad y la eficiencia. Sin embargo, este sistema ha generado una cantidad impresionante de más de 44,000 alertas durante su fase de prueba, de las cuales 19,000 se entregaron en tiempo real al personal de la estación.

A través de este sistema, TfL ha probado 11 algoritmos diferentes en la estación de Willesden Green, buscando la forma de integrar la IA y el video en vivo para generar alertas útiles. Sin embargo, la realidad ha mostrado que la tecnología aún está lejos de ser perfecta. La prueba, que duró aproximadamente un año, ha sido un claro ejemplo de cómo la tecnología puede generar tanto impactos positivos como negativos. La IA, en este caso, se comportó como un «cañón de perdigones», lanzando alertas por todo, pero rara vez logrando un impacto significativo.

Los algoritmos no solo detectaron comportamientos prohibidos como el uso de sillas de ruedas, carriolas, vapeo, acceso a áreas no autorizadas o comportamientos peligrosos cerca de los bordes de las plataformas, sino que también cometieron errores considerables. Por ejemplo, niños siguiendo a sus padres a través de barreras de boletos fueron marcados como posibles evasores de tarifas y no pudo distinguirse entre una bicicleta plegable y una no plegable. Estos errores subrayan una de las preocupaciones fundamentales sobre la IA en contextos de vigilancia: la posibilidad siempre presente de falsos positivos.

La documentación reveló la ambición de TfL de detectar comportamientos vagos como la «agresión» mediante IA, un objetivo particularmente ambicioso dado que la tecnología todavía lucha por detectar de manera confiable incluso sonidos de disparos. La falta de datos de entrenamiento y la incapacidad para detectar actos de agresión con éxito resaltan las limitaciones actuales de la IA en interpretar complejidades humanas.

Lo que comenzó como un proyecto con el rostro desenfocado y datos retenidos solo por dos semanas, se transformó en una misión para identificar a evasores de tarifas, cambiando el enfoque hacia razones pecuniarias más que de seguridad. Este cambio, que resultó en la generación de alertas abrumadoras y su eventual relegación a una especie de «carpeta de spam de IA», refleja un dilema central en la aplicación de IA en la vigilancia: el balance entre seguridad y privacidad, eficiencia y precisión.

Este caso ilustra la complejidad de implementar tecnologías emergentes en la gestión y vigilancia del transporte público. Si bien la meta de reducir el fraude y mejorar la seguridad es loable, la realidad de los falsos positivos y la potencial invasión a la privacidad plantean preguntas serias sobre la dirección hacia la que nos dirigimos con la vigilancia basada en IA.

Es fundamental que las entidades como TfL consideren no solo las capacidades de estas tecnologías, sino también sus limitaciones y las implicaciones éticas de su uso.

Comparte en: