No cabe duda que los avances alcanzados en estos últimos años en el terreno de los sistemas de conducción autónoma han sido enormes, aunque llegar allí implicó pasar por un proceso lleno de errores y accidentes.
Sin embargo, pese a todos los logros alcanzados, aún resulta necesario que la inteligencia vehicular experimente más ajustes en su funcionamiento para poder ser catalogada como una tecnología totalmente autónoma, que proporcione seguridad sin necesidad de intervención humana.
Es por ello que, dentro del proceso de optimización de las plataformas llevado a cabo por las empresas, las condiciones meteorológicas tienden a convertirse en el punto focal, abordada junto a otros aspectos como la cartografía y el curso de acción tomado por los coches autónomos ante objetos peligrosos en la vía.
No obstante, existen otros factores que resultan imperceptibles al ojo humano: imágenes «fantasma», anomalías visuales como una señal de alto creada por luces parpadeantes reflejándose sobre un cartel electrónico, lo cual, de acuerdo a una nueva investigación de la universidad Ben Gurion del Negev en Israel, pueden originar confusión en los sistemas IA y generar respuestas inesperadas de los coches autónomos.
En este sentido, el investigador de seguridad Yisroel Mirsky señaló que las proyecciones de luz generadas sobre una valla publicitaria electrónica pueden hacer que un coche frene repentinamente o se desvié de su curso inicial.
Para poner a prueba esto se llevaron a cabo pruebas sobre la última versión de Tesla de Autopilot y MobileEye a las cuales les fue presentada una falsa señal de alto durante 0,42 segundos, ocasionando que los sistemas de ambas fuesen engañados.
Pese a que las pruebas tuvieron el mismo efecto con proyecciones de luz con forma humana, los atacantes que tengan intención de desestabilizar el sistema del coche autónomo verán mas conveniente usar una valla publicitaria digital para cumplir este objetivo.
En Wired tenéis el estudio completo.