Problemas concretos de seguridad causados por la Inteligencia Artificial [Documento de Google]

Publicado el

skynet AI

Amplio es el listado de beneficios para la sociedad que pretenden alcanzar los desarrollos de la Inteligencia Artificial (incluyendo el Aprendizaje de máquinas), pero es importante considerar también los potenciales riesgos que, para esa misma sociedad, podrí­a traer un mal manejo de dichos avances en el área.

El tema es tan llamativo que grandes mentes como Stephen Hawking, Elon Musk, gente de Google e investigadores de reconocidas universidades, han unido sus mentes y recursos para empezar a investigar sobre cómo mitigar sus posibles riesgos, desde desmotivar la creación de armas autónomas incluir un botón rojo para detenerlas en caso de emergencia, hasta fundar organizaciones (como OpenAI y Futureoflife) destinadas al desarrollo inteligente y colaborativo de las IA preservando la existencia de la humanidad y evitando que se autodestruya.

Claro, como la desinformación siempre es un problema, dichas mentes, particularmente, investigadores de Google, OpenAI, Stanford y Berkeley, han trabajado en conjunto para generar un documento técnico que hable de los primeros problemas concretos, no tanto hipótesis y especulaciones, para que el resto de investigadores del mundo lo consideren como partida en sus propios desarrollos, en especial, en el campo del Aprendizaje de máquinas.

El documento no es muy extenso y ya se encuentra en arXiv.org como PDF. En él se habla esencialmente de cinco problemas que suelen detectarse en desarrollos de AI y los respectivos enfoques por considerar incluyendo el evitar efectos secundarios -por ejemplo, que un robot no rompa las cosas sobre una mesa para limpiarla más rápido- o buscar su eficiente aprendizaje autónomo sin poner en riesgo su propia seguridad.

Más información: Google Research Blog | Imagen: Terminator Genisys