Ya estamos enseñando a los robots a desobedecer órdenes de humanos

robot

Cualquier aficionado a Issac Asimov sabe que hay ciertas leyes que los robots deben seguir, y es por causa de esas leyes por las que existe el NO.

Investigadores de la Tufts University están trabajando en eso, en crear leyes para que los robots puedan actuar según esa lógica, y de momento se basan en cinco preguntas que todo robot debe hacerse:

Conocimiento: ¿Sé cómo hacer X?
Capacidad: ¿Estoy en condiciones físicas de hacer X ahora?
Objetivo prioritario y el momento: ¿Soy capaz de hacer X en este momento?
Rol social y obligación: ¿Estoy obligado, basado en mi rol social, a hacer X?
Permisibilidad Normativa: ¿Hace X viola cualquier principio normativo?

Todo parece bastante lógico, pero cuando llegamos a la “Función social y obligación”, estamos tocando puntos más sensibles: es una manera complicada de decir que el robot no debe hacer cosas que sabe que son peligrosas.

No solo se trata de que el robot entienda cuando debe o cuando no debe hacer algo, se trata de dar algún motivo sólido para que sea capaz de rechazar una orden, algo necesario si tenemos en cuesta que un humano podría pedir la autodestrucción sin motivo aparente (pedir que de un paso frente a un precipicio, por ejemplo).

En spectrum.ieee.org tenéis algunos vídeos con ejemplos de “robots desobedientes”, así como una explicación detallada del proyecto.

Juan Diego Polo

Estudió Ingeniería de Telecomunicaciones en la UPC (Barcelona), trabajando como ingeniero, profesor y analista desde 1998 hasta 2005, cuando decidió emprender creando wwwhatsnew.com.