Un coche autónomo a alta velocidad se encuentra con cinco peatones que aparecen «de la nada», no hay cómo frenar a tiempo, solo se puede girar a la derecha rápidamente, donde solo hay un peatón. ¿Debería el coche girar y matar a una sola persona o seguir y atropellar a las cinco?.
Esta es una de las cuestiones filosóficas a las que debe enfrentarse el software que gestiona este tipo de vehículos, cuestiones que comentan en qz.com.
Este tipo de dilemas morales son objeto de debate en la filosofía desde hace muchísimo tiempo (mirad este ejemplo), y ahora vuelven a renacer con la llegada de los coches autónomos. Son cuestiones semejantes a las de otro ejemplo conocido: Estamos en un puente peatonal y vemos como un coche circula hacia un grupo de personas sin poder parar; a nuestro lado hay un tipo muy gordo, y si le empujamos, el coche se estrellará contra él y conseguirá parar antes de atropellar al grupo; ¿seremos capaces de matar a uno para salvar a varios?.
La pregunta, enfocada en el mundo de los coches autónomos, es sencilla: ¿debe un coche matar a un peatón para salvar las vidas de los que hay dentro de él o la vida del peatón es más importante que la de los pasajeros?. Se han realizado pruebas, encuestas entre cientos de personas con escenarios de diferentes tipos para saber lo que el ser humano piensa en general, algo necesario para que el coche pueda imitar ese comportamiento. En los resultados, el 75% de la gente piensa que el coche siempre debe desviarse y matar a los pasajeros si es necesario, siempre para evitar matar a los peatones, aunque haya 5 personas dentro del coche y solo un peatón en la calle.
Aunque hay una linea de pensamiento que indica que la acción moral es la que produce la máxima felicidad para el máximo número de personas, eso no se aplicaría en el caso anterior. La mayoría de la gente incluye una variable extra: ¿quién es el responsable?. Un peatón que cruza sin mirar en un semáforo en verde, un coche estropeado, un radar que detectó información falsa… Helen Frowe, profesor de filosofía especializado en el asunto, indica que los vehículos deben proteger a personas inocentes, y los pasajeros, en el momento en el que deciden entrar en un coche autónomo, asumen un riesgo, son «menos inocentes» que el peatón.
Pero… ¿Y si hay dos niños en el asiento trasero?, ¿cómo cambia eso el cálculo moral?. Los fabricantes de automóviles aún tienen que revelar su postura sobre el tema, pero si los filósofos no se ponen de acuerdo… ¿cómo lo harán los responsables por el software?