Cuando se habla de coches autónomos se plantea a menudo la pregunta de qué deberían hacer en una u otra situación. Cuando es una máquina la que tiene que tomar decisiones, existen puntos que van más allá de la pura tecnología, principalmente cuando la vida de una o varias personas está en juego.
Uno de los casos más comunes planteados es el siguiente:
– Un coche autónomo tiene en su interior a dos personas, y circula por un precipicio. Después de una curva, hay cuatro ciclistas que no fueron detectados por los sensores, y no hay tiempo para frenar. El coche, ¿debería girar y tirarse por el precipicio para matar solo a dos personas o debería matar a los cuatro ciclistas?.
Mientras algunos opinan que debe siempre respetar la vida de los que tiene dentro, que son sus dueños, otros creen que la decisión tiene que salvar al mayor número de personas posible. Los especialistas en derecho y filosofía ya han dado la vuelta al tema en varias ocasiones, mientras que las grandes tecnológicas siguen avanzando para crear sensores cada vez más exactos.
Ahora es el MIT el que quiere poner su granito de arena, y lo hace con una web llamada Moral Machine, sitio en el que podemos enfrentarnos a varias situaciones y juzgar, opinando sobre lo que debería hacer el vehículo en cada contexto presentado.
Moral Machine quiere obtener datos estadísticos con la esperanza de ayudar a tomar este tipo de decisiones, datos que serán usados por los responsables que, al final, serán los que programen a los nuevos coches autónomos.