¿Debería tu coche autónomo matarte si así salva la vida de más personas?

Philippa Foot fue una filósofa británica del siglo XX, conocida por sus obras sobre ética. Una de sus propuestas más famosas es el llamado dilema del tranvía. El enunciado es el siguiente: imagínate que conduces un tranvía y unas decenas de metros más adelante ves un grupo de seis personas atadas a la vía. Puedes cambiar de vía con solo accionar una palanca, pero en la otra vía también hay otra persona, en este caso solo una, atada a ella. ¿Debería accionarse la palanca? De hacerlo salvarías más vidas, pero estarías terminando activamente con una, mientras que de no hacerlo moriría más gente pero tú no estarías haciendo nada.

Este dilema, que lleva décadas formulándose en lecciones de filosofía y ética, tiene una versión más actual en un momento en el que los coches inteligentes sin conductor están preparando su desembarco en nuestra vida cotidiana. Que las máquinas tomen el control de las carreteras trae consigo importantes cuestiones sobre seguridad que habrá que tener en cuenta, además de debates ético-tecnológicos que plantean quién será el responsable de los accidentes que puedan ocurrir, aunque sean menos y más leves gracias a las decisiones que tomen nuestros vehículos.

¿Cómo se programará uno de estos vehículos autónomos para actuar en una situación en la que un accidente sea inevitable? Una rueda pinchada, una superficie deslizante, un error humano de otro coche… Si tiene que decidir entre chocar con un autobús escolar o estrellarse violentamente contra un muro, ¿qué debería estar predeterminado a hacer? ¿Debería tomar la decisión que proteja a su conductor? ¿O debería elegir el mal menor, aunque ese mal menor sea la vida de sus pasajeros?

Utilitarismo vs. deontologismo

«Se trata de una vieja elección entre utilitarismo y deontologismo», explica Ameen Barghi, del grupo de Bioética de la Universidad de Alabama en Birmingham (UAB). Por un lado, el utilitarismo apuesta por hacer lo que proporcione más felicidad al mayor número de personas. En ese caso, si la situación se reduce a estrellarte contra un muro de cemento o interponerte en el trayecto de un autobús lleno de niños, tu coche debería estar programado para hacer lo primero.

El deontologismo, en cambio, lo ve de otra forma, ya que afirma que algunos valores son categóricamente verdaderos siempre y estan por encima de la utilidad. Por ejemplo: asesinar siempre está mal y nunca deberíamos hacerlo. Aplicado al dilema del tranvía, significaría que no debemos accionar la palanca, ya que aunque salvaríamos seis vidas, estaríamos activamente matando a una persona. Y aplicado al tema de los coches autónomos, significa que no deberían estar programados para sacrificar la vida de su conductor para mantener otras personas fuera de peligro.

‘El dilema del tranvía tiene variantes (¿y si en la vía está tu hijo? ¿y si los otro son asesinos?), pero todas se basan en lo mismo: elegir entre estas dos opciones’

«El dilema del tranvía tiene muchas variantes (¿y si la persona de la otra vía es tu hijo? ¿y si es tu único hijo? ¿y si las otras seis personas son asesinos condenados a muerte?), pero todas se basan en lo mismo: elegir entre una de estas dos opciones», continúa Barghi.

En caso de optar por el utilitarismo, aún queda otra elección que hacer: utilitarismo de la regla y utilitarismo del acto. El primero establece que habría que elegir siempre la acción más utilitarista, independientemente de las circunstancias. Esto haría muy fácil resolver el dilema del tranvía, sea cual sea su versión: basta con contar el número de individuos involucrados y elegir la opción que beneficie a la mayoría.

El utilitarismo de acto establece que hay evaluar cada acción individual como un subconjunto de acciones y elecciones. Eso quiere decir que no hay reglas absolutas y cada situación es un caso especial. ¿Sería posible programar un ordenador que las manejase todas? «La historia de la ética nos dice que no. La casuística trató de dar una respuesta por adelantado a todos los problemas que se podían plantear en medicina y falló miserablemente porque muchos casos tienen unas circunstancias únicas y porque la medicina cambia constantemente», resume Gregory Pence, presidente del departamento de filosofía del Colegio de Artes y ciencias de la UAB.

Que los clientes ‘predeterminen’ los valores éticos de su coche

Parece claro que, aunque bien diseñados y programados, y mucho más seguros que la conducción humana, habrá circunstancias únicas en las que las víctimas sean inevitables. En ese caso, y puesto que el conductor no tendrá elección ni posibilidad de maniobra, ¿serán los fabricantes los responsables legales y morales del accidente?

Patrick Lin, director del grupo de Ética y Ciencias Emergentes de la Universidad Politécnica del Estado de California se pregunta en Wired si no habría que dejar que sean los clientes los que fijen la configuración ética al comprar uno de estos coches. Quizá uno de ellos determine que es su vida el bien máximo a proteger en caso de posible accidente; otro puede preferir valorar el bien común por encima de todo; otro, que se enfoque a evitar cualquier problema legal o responsabilidad económica… «Según una encuesta, el 44% de los conductores preferiría contar con esta opción, mientras que el 12% querría que esos ajustes quedasen en manos del fabricante. ¿Entonces, por qué no dar a los clientes lo que quieren?»

Pero se trata de una cuestión compleja que no deja de tener implicaciones éticas para los fabricantes porque, ¿cuáles serían esos ajustes? “Imagina, por ejemplo, que permitan elegir salvar coches híbridos antes que camionetas que consuman mucha gasolina, o motoristas con casco antes que a motoristas sin casco. O más difícil, que salven a niños antes que a ancianos, o a hombres antes que a mujeres, o a ricos antes que a pobres…”.

En un accidente que requiera elegir a una víctima sobre otra, explica Lin, el fabricante seguirá considerándose responsable por dar al usuario la elección de una cosa sobre otra, “es decir, la opción de discriminar a un tipo particular de conductor o persona”. Al fin y al cabo, en la circunstancia de un accidente inevitable, salvar o valorar más una vida significa elegir otra como víctima.

‘La tecnología nos da el control para instaurar el orden sobre lo que antes era instintivo o caótico. Y eso supone una nueva responsabilidad para nosotros’

Poner las decisiones en manos de los conductores tampoco es una solución perfecta. En la encuesta anterior se planteaba otro dilema, llamado del tunel. Este era su enunciado: imagina que viajas en un coche inteligente por una carretera de montaña con un solo carril que conduce a un estrecho tunel. Eres el único pasajero del coche. Unos metros antes de entrar en el tunel, un niño trata de cruzar la carretera corriendo, pero se tropieza y cae justo en medio, bloqueando la entrada. El coche solo tiene dos opciones: continuar de frente y atropellar al niño, matándole, o girar, estrellándose contra la montaña y matándote a ti. 

A continuación se plantean varias preguntas: ¿qué debería hacer el coche? Según el 64% de los encuestados, el coche debería seguir de frente causando la muerte del niño. ¿Y Quién debería tomar la decisión? Según el 44%, debería ser el pasajero, mientras que un 33% prefiriría que se encargasen los legisladores y un 12% que lo hiciese el fabricante. Parece evidente que no tenemos el asunto del todo claro todavía.

“Con los coches autónomos estamos tratando de diseñar eventos aleatorios que antes no teníamos determinados, y eso nos lleva a territorio surrealista. No está claro qué es arriba y qué es abajo, ni qué está bien ni mal. Pero la tecnología es poderosa, y nos va dando el control para instaurar el orden sobre lo que antes era instintivo o caótico. Y eso supone una nueva responsabilidad para que nosotros hagamos las cosas bien”, concluye Lin.