Ya estamos enseñando a los robots a desobedecer órdenes de humanos

Publicado el

robot

Cualquier aficionado a Issac Asimov sabe que hay ciertas leyes que los robots deben seguir, y es por causa de esas leyes por las que existe el NO.

Investigadores de la Tufts University están trabajando en eso, en crear leyes para que los robots puedan actuar según esa lógica, y de momento se basan en cinco preguntas que todo robot debe hacerse:

Conocimiento: ¿Sé cómo hacer X?
Capacidad: ¿Estoy en condiciones fí­sicas de hacer X ahora?
Objetivo prioritario y el momento: ¿Soy capaz de hacer X en este momento?
Rol social y obligación: ¿Estoy obligado, basado en mi rol social, a hacer X?
Permisibilidad Normativa: ¿Hace X viola cualquier principio normativo?

Todo parece bastante lógico, pero cuando llegamos a la «Función social y obligación», estamos tocando puntos más sensibles: es una manera complicada de decir que el robot no debe hacer cosas que sabe que son peligrosas.

No solo se trata de que el robot entienda cuando debe o cuando no debe hacer algo, se trata de dar algún motivo sólido para que sea capaz de rechazar una orden, algo necesario si tenemos en cuesta que un humano podrí­a pedir la autodestrucción sin motivo aparente (pedir que de un paso frente a un precipicio, por ejemplo).

En spectrum.ieee.org tenéis algunos ví­deos con ejemplos de «robots desobedientes», así­ como una explicación detallada del proyecto.

Publicado en
Etiquetado
robot

Comparte en: