Cálculos teóricos sugieren que no podremos controlar a las máquinas superinteligentes

Publicado el

robot del mal

Cuando hablamos de inteligencia artificial a veces se nos va la cabeza a las películas de ciencia ficción, esas que llegan a la conclusión que lo mejor para el planeta es eliminar a la raza humana. Los argumentos en contra de esa posibilidad siempre son los mismos: somos los humanos los que diseñamos los algoritmos, y lo haremos para que las máquinas nunca puedan hacer nada que nos dañe.

Ahora un equipo de científicos informáticos ha utilizado cálculos teóricos para argumentar que los algoritmos no podrían controlar una IA superinteligente.

El artículo lo leemos en TNW, donde indican que el problema que intentan solucionar es el que ya comentó en su momento el filósofo de Oxford Nick Bostrom, el problema del control: ¿cómo nos aseguramos de que las máquinas con superinteligencia actúen en nuestro interés?

Para encontrar una respuesta hicieron un algoritmo de contención teórico que resolvería este problema simulando el comportamiento de la IA y deteniendo el programa si sus acciones se volvían perjudiciales.

Durante el trabajo llegaron a la conclusión que es imposible construir un algoritmo que pudiera controlar tal máquina. La conclusión la da Iyad Rahwan, Director del Centro para Humanos y Máquinas:

Si descomponemos el problema en reglas básicas de la informática teórica, resulta que un algoritmo que ordenase a una IA que no destruyera el mundo podría detener inadvertidamente sus propias operaciones. Si esto sucediera, no sabría si el algoritmo de contención todavía está analizando la amenaza o si se ha detenido para contener la IA dañina. En efecto, esto inutiliza el algoritmo de contención.

El estudio encontró que ningún algoritmo podría calcular si una IA dañaría al mundo, debido a los límites fundamentales de la informática:

Suponiendo que una superinteligencia tuviera un programa que incluya todos los programas que puedan ser ejecutados por una máquina universal de Turing en una entrada potencialmente tan compleja como el estado del mundo, la contención estricta requiere simulaciones de dicho programa, algo teórica (y prácticamente) imposible.

Lógicamente, esa IA continúa siendo una ficción, pero los científicos creen que todo es cuestión de tiempo. El coautor del estudio, Manuel Cebrian, del Instituto Max Planck para el Desarrollo Humano, dijo que ya existen máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan completamente cómo las aprendieron, por lo que hay que tener cuidado.

El documento del estudio se encuentra en este enlace.