Se puede engañar a la Inteligencia Artificial para que piense que una tortuga es un rifle

Publicado el

tortuga rifle

De la misma forma que los humanos pueden ser engañados con ilusiones ópticas, trucos en los que los ordenadores y ciertos animales no podrí­an caer nunca, las máquinas también pueden ser engañadas, y en labsix.org unos estudiantes del MIT lo han demostrado.

Los sistemas de Inteligencia artificial son capaces de reconocer objetos gracias a una serie de «normas» que fueron programadas. Si se estudian bien esos patrones, es posible crear una imagen que para un ordenador sea una cosa y para un ser humano sea otra. La tortuga falsa (fue creada en una impresora 3D) de la imagen superior, por ejemplo, es un rifle según la IA de Google.

Son imágenes diseñadas para engañar al software de visión artificial, incorporando patrones especiales que hacen que los sistemas de IA se equivoquen. Un pequeño giro de la imagen, o un zoom, permitirí­a que la máquina volviera a realizar el reconocimiento de forma correcta, pero equivocarse durante algunos segundos podrí­a ser fatal para un robot policí­a, por ejemplo, o para un coche autónomo que piense que una persona es una mancha en el asfalto.

gato guacamole

Los estudiantes también fabricaron una pelota de béisbol que se confunde con un café, o una foto de un gato que se confunde con un guacamole, tal y como se puede ver en la captura superior.

En algunas ocasiones consiguieron que el error se produjera desde varios ángulos, aunque en la mayorí­a de las veces siempre hay alguna postura en la que la IA vuelve a su estado normal (el esperado).

El objetivo no es llegar a la conclusión de que los sistemas de Inteligencia Artificial son malos, lo que quieren es mostrar sus puntos débiles para que podamos solucionar los problemas antes de ponerlos en el mercado.

Publicado en
Etiquetado
robots

Comparte en: