Hablamos del coche autónomo, ¿deberían los coches autónomos reaccionar ante una crisis como nosotros? Ante una situación de peligro en la que se de el dilema ético que no tiene fácil solución, ¿por qué entenderíamos la reacción humana, y no la reacción de la máquina? ¿Por qué la reacción humana, aunque sea errónea, se puede comprender? Esta interesante cuestión tiene mucha historia detrás, porque la idea preconcebida que tenemos es que la reacción de una máquina no es tal, sino que es una decisión. Interesante, ¿verdad?
Las personas reaccionamos ante las crisis de muchas maneras. Desde las reacciones viscerales, las de terror paralizante, hasta las automatizadas, sin intervención de la mente consciente. Depende de nuestra preparación, del nivel de atención que tengamos, de nuestros reflejos, y en general, la reacción de dos personas diferentes será diferente. Pero una máquina está programada por una persona, y la programación parece que debería ofrecer un conjunto predecible de posibles soluciones ante un problema.
Si ante una situación desesperada una máquina decide que nuestro coche se va a estrellar contra una moto o un autobús lleno de niños porque de esa manera alcanzaría la mejor solución estimada en ese momento, la opinión pública asumirá que la máquina decidió hacer daño a un motorista, o poner las vidas de unos niños en peligro. En caso de que el conductor fuese humano, posiblemente todo se reduciría a un “error humano”. Y tan felices. En este vídeo se explica todo muy bien.
Como podemos ver, la solución perfecta no es sencilla, y es más, la tolerancia de las personas (generalizando a opinión pública) parece ser muy escasa cuando se trata de que una máquina decida quién recibe daño, y quien sale indemne. La parte final del vídeo es más interesante todavía porque expone un problema más complejo aún: si tenemos que decidir entre golpear a un motorista con casco, y otro sin casco, ¿cuál elegimos? Sea cual sea la decisión, siempre parecerá errónea.
No podemos asumir coches autónomos que reaccionen de la misma manera que nosotros
Eso es porque en realidad, en ese caso particular, nosotros no decidiríamos conscientemente a quién embestir para salvar la situación. Las reacciones no funcionan así, y sí son más una sucesión de actos individuales para conseguir un objetivo muy claro: evitar una colisión. Nosotros evitaremos una colisión con la intención de salvarnos a nosotros mismos, a nuestros acompañantes, tratar de producir los mínimos daños posibles, y que las consecuencias sean mínimas. ¡No reaccionamos para otra cosa más que para sobrevivir!
A las máquinas les estamos exigiendo de partida un nivel muy superior de responsabilidad (una responsabilidad que nosotros como humanos nos negaríamos a asumir), e incluso un umbral de culpabilidad casi inexistente: si hay máquinas de por medio, casi seguro que todo será por su culpa porque tienen capacidades superiores para valorar los escenarios, ergo si me hacen daño ha sido a propósito.

No es que las máquinas deban, o no, reaccionar como nosotros: es que no pueden permitírselo. Nosotros no podemos asumir coches autónomos, que en teoría erradican el error humano de las carreteras, y permitir que reaccionen de la misma manera que nosotros, con nuestros errores humanos. La sociedad ve a “las máquinas” como una salvación, una amenaza y un misterio absoluto, todo a la vez.
Aquí radica el problema ético real, y genera una nueva pregunta: ¿es mejor una solución programada que minimice los daños de forma objetiva, o bien es mejor una reacción aleatoria que no podamos juzgar con legitimidad?