{:es}En 1942 Isaac Asimov escribe en uno de sus relatos de ficción científica 3 leyes que se deben integrar en lo más profundo del «cerebro» de los robots, su «código moral«. ¿Cómo pueden influir las tres leyes de Asimov en el coche autónomo?… ésta parece ser la gran pregunta para la plena implantación de los automóviles sin conductor.
Las tres leyes de la robótica escritas por Isaac Asimov pretenden evitar el temor natural del ser humano a una posible rebelión de las máquinas contra sus creadores, algo que el autor definió como «Complejo de Frankenstein«. Estas tres sencillas normas forman un bucle que evitaría esa posible rebelión:
- Un robot no podrá hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
- Un robot debe obedecer las órdenes de un ser humano, salvo que éstas entren en conflicto con la primera ley.
- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera y segunda ley.
Cuál es la finalidad principal del coche autónomo

Todos los fabricantes de automóviles están apostando firmemente por la conducción autónoma. Desde hace años ya se está adaptando el diseño de los coches para que sean más interactivos entre sí. ¿Os habéis fijado en que ahora la parte trasera de los coches suele ser muy angulosa, con enormes salidas de escape de formas rectangulares, triangulares, defensas y nervaduras en la carrocería con muchas aristas…? El motivo es que de este modo resultan mucho «más visibles» para los sistemas de detección de obstáculos, controles de crucero adaptativos, alertas de colisión, etc.
En esta carrera por lograr lanzar al mercado el primer automóvil de conducción autónoma la mayoría de fabricantes apuntan a la misma fecha: 2020. En ese año, algunas compañías como Volvo afirman que su objetivo es que no muera nadie en un accidente de tráfico en sus vehículos.
Poco a poco los fabricantes nos están «reeducando» para que dejemos de ver el coche como algo en lo que disfrutar de la conducción. Cada vez nos abruman con más dispositivos que nos distraen (lo cual parece que va en contradicción con la situación actual, en la que el conductor debe concentrarse en conducir), conexión a internet, sistemas de infoentretenimiento cada vez más complejos, poder leer nuestro correo electrónico… de ese modo no echaremos de menos conducir cuando nos digan que no lo podremos hacer, porque, aunque no nos lo digan tan a las claras, una de las claves para que los coches puedan conducir de forma 100% autónoma es que no haya coches conducidos por humanos que puedan tener reacciones imprevistas. Sólo si el coche sabe de manera precisa lo que va a hacer el de al lado podrá conducir de forma autónoma con seguridad.
La tecnología ya permite en este momento que el coche pueda ser autónomo, pero hay dos problemas para que sean ya una realidad:
- Las infraestructuras deben adaptarse a la conducción autónoma. Para que los coches puedan conducir solos, deben poder recibir y enviar información a los semáforos, señales, conocer la situación del tráfico, si un tramo está cortado, si hay hielo en la calzada, etc. Para ello, las infraestructuras deberán adaptarse y mantenerse por parte de las autoridades.
- La legislación deberá adaptarse y permitir la conducción autónoma. En la actualidad, la ley prohíbe expresamente que el conductor se distraiga, así que, legalmente, un guardia civil nos podría sancionar si ahora mismo tuviésemos un coche que fuese capaz de conducir sin un conductor. Por otro lado, en caso de infracción, ¿quién es el culpable: vehículo o conductor?… Sí, ya sé que parece un diálogo de la película Airbag, pero es así.

Además de estos dos problemas, no son pocas las voces (como las de Jean-François Bonnefon, Azim Shariff, Iyad Rahwan) que ya están apuntando otro importante escoyo para el desarrollo y la implantación del coche autónomo: la ética y la moral. ¿Conducirías un coche que pudiese decidir matar a su conductor para salvar otras vidas? ¿Conducirías un coche que, para salvar a su conductor, pudiese acabar con la vida de otros?…
Por desgracia, el padre de las tres leyes de la robótica falleció el 6 de abril de 1992, una lástima que no haya podido asistir a este debate moral «hombre-máquina».
En efecto, el coche autónomo nace bajo la premisa de reducir las muertes en accidentes de tráfico, definida por el filósofo Albert Camus como la muerte más idiota de todas (paradójicamente, él mismo falleció en uno pocas semanas después de tal afirmación). La realidad es que, aunque los fabricantes prometen que no morirá más gente en accidentes de tráfico gracias al coche autónomo, los siniestros son inevitables. El insumergible Titanic se hundió, los aviones con pilotos automáticos y mil protocolos de seguridad se estrellan, etc.
¿Cómo reaccionaría un coche autónomo si llega a una situación en la que el accidente fuese inevitable? La respuesta es simple: debería buscar el mínimo daño posible… y aquí empieza la controversia moral y su similitud con las tres leyes propuestas por el señor Asimov en 1942.
Coche autónomo: asesinar o suicidar

Hay varias situaciones que se plantean para poner diversos ejemplos que ponen en evidencia una paradoja ética a la hora de desarrollar el software que debe regir «la moral del coche autónomo«, pero todas se basan en lo mismo: ¿El coche autónomo debe decidir matar a otra persona para proteger la vida de sus ocupantes o sacrificar a sus ocupantes para salvar más vidas en una situación de accidente inevitable?.
Uno de los ejemplos propuestos es simple:
Un único pasajero circula en su coche autónomo y un grupo de personas está en medio de la trayectoria, sea por el motivo que sea. El vehículo no puede evitar el accidente y se le plantean dos alternativas: arrollar a ese grupo de personas para proteger la integridad de su pasajero o salirse de la carretera y sacrificar a su «conductor» para salvar las otras vidas. En un principio, aplicando la ley de los mínimos daños, debería «suicidar» a su ocupante para salvar más vidas y así minimizar las pérdidas humanas, pero… ¿comprarías o viajarías en un automóvil que sabes que te considera prescindible?. Si el fabricante decidiese dar prioridad a la vida de sus ocupantes, ¿comprarías o viajarías en un coche que pudiese tomar la decisión de asesinar a otras personas para salvar tu vida?… La disyuntiva asusta.
[ngg src=»galleries» ids=»30″ display=»basic_thumbnail»]{:}{:en}Translated by Miguel Fernández Garrido.
In 1942 Isaac Asimov formulated in one of his science-fiction writings the three laws that must be “embedded” in a robot´s brain and that constitute the robot´s ethical code. How can these three laws related to the autonomous car? This appears to be the biggest issue for the fully fledged implementation of the self-driving automobile.
The main purpose of the Three Laws of Robotics as formulated by Asimov is to ward off the human fear of a rebellion of the machines against their creators, which Asimov dubbed the “Frankenstein complex”. The three laws are:
- A robot may not injure a human being or, through inaction, allow a human being to come to harm
- A robot must obey orders given it by human beings except where such orders would conflict with the First Law.
- A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.
What is the main purpose of the autonomous car?

All car manufacturers are betting on autonomous driving technology. In the last few years, car designs have been adapting in order to achieve a higher level of interaction with each other. You may have noticed how modern cars´rear ends are full of angles, they have huge exhaust outlets shaped as rectangles or triangles, their bodies and bumpers are full of edges… the reason for this lies in the fact that these elements make the car more visible for obstacle detection systems, adaptive cruise controls, collision warning systems and so on.
In this race for launching into the market the first self-driving car, most car manufacturers are targeting the year 2020. Some companies, like Volvo, admit that their aim is that not a single person dies in one of their vehicles by that year.
Little by little, car manufacturers are re-educating us so that we no longer view driving as an enjoyable activity. They overwhelm us with a plethora of distracting gadgets in their cars (which seems to contradict one of the most important safety considerations, namely, that the driver should focus on driving), internet connectivity, ever more complex infotainment systems, their cars even offer us the possibility of being able to check our e-mails. This way we will not miss driving when the time comes when we will not be allowed to, for this is the ultimate aim, even if nobody will openly admit it: one of the keys to having cars that can drive 100 per cent autonomously is to remove the human factor from the safety equation, and so to rid the roads from all the vehicles driven by humans, since only humans can have unpredictable reactions. Only if the car knows with 100 % accuracy what other cars are going to do will it be able to drive autonomously in a safe way.
The technology is already there for cars to be able to drive autonomously, but there two main problems the implementation of the self-driving car.
- The existing infrastructures must be adapted to autonomous driving. In order for the cars to be able to drive unaided by human input, they must be able to communicate with traffic lights and road signs, and they must be aware of traffic conditions -if there is ice on the road or if there is roadwork ahead for example. To achieve this, infrastructures must be adapted and then maintained by the competent authorities.
- The standing legislation must be changed to allow for autonomous driving. Currently, the law forbids and penalizes any distraction by the driver, and so a policeman would be right to give us a ticket if we were caught using a self-driving car in autonomous mode. And if that were the case, who would be responsible for wrongdoing, the car or the “driver”? Nonsensical as it sounds, it is a matter that needs legal defining.

Aside from these two problems, many authors including Jean-Francois Bonnefon, Azim Shariff or Iyad Rahwan have pointed out another important hurdle that the development and eventual implementation of the self-driving car must overcome: its ethical and moral dimension. Would you drive a car that might decide sacrificing its driver in order to save other lives? Or would you drive a car that, in order to save its driver might kill other lives?
Unfortunately, the creator of the Three Laws of Robotics died on 6th April 1992, long before he could partake in this fascinating man-vs-machine moral debate.
In actuality, the autonomous car is born with the objective of reducing the number of deaths in car crashes -incidentally, defined by Albert Camus as “the dumbest of all deaths” only months before he was killed in an accident himself. In truth, fatalities are inevitable no matter the insistence of car makes in promising that the autonomous car will prevent people from being killed in car accidents. After all, the unsinkable Titanic did sink, and airplanes fall from the skies despite their auto-pilots and scrupulous safety protocols.
So how would the self-driving car act in a situation where a crash was unavoidable? The answer is quite simple: it should choose the solution that caused minimum damage. And herein starts the moral issue and its similitude with Asimov´s Three Laws of Robotics.
Self-Driving cars: to kill or to commit suicide

There are different scenarios that are always brought forward to illustrate the ethical paradox incurred when developing the software that must govern the autonomous car, but they all come down to the same thing: given a situation where an accident is unavoidable, should the self-driving car choose to kill another person for the safety of its passengers, or should it sacrifice the occupants in order to save more lives?
This is one of the proposed examples:
An only occupant is cruising in his self-driving car and a group of people is standing on the way of the vehicle for whatever reason. The car cannot prevent an accident from happening and it is confronted with two alternatives: it can either run over the group of pedestrians -thus protecting the life of the passenger, or it can swerve out of the road potentially “sacrificing” its passenger in order to save more lives. If we follow the law of minimum harm, in such case the car should “suicide” its occupant to minimize loss of human life but, would you buy or drive in a car that you know may regard you as dispensable? And if the manufacturer decided to give priority to the life of the car´s occupants, would you buy or drive in a car that could choose to kill other people in order to save your life?… a scary conundrum indeed!{:}
¡Qué lejos me pilla todo esto! Con lo contento que estoy yo con mi coche de hace 23 años.
Pero contestando a tu pregunta: no, no compraría ningún coche que decidiera por mí.
El problema es que es muy probable que nos lo impongan…
¿De verdad crees que tú y yo vamos a ver esto? Yo apuesto a que no. Cuando lleguemos a los 80 años, me pagas una comida en el restaurante galego que quieras. Yo iré hasta allí en mi 900 😉
Lo has dicho por escrito 😉