Roberto López | La profesora de Ética
¿Ustedes piensan que todo ser humano tiene dignidad?
“¿Ustedes piensan que todo ser humano tiene dignidad?, pregunta la profesora de Ética (Sapere Aude, Netflix). La respuesta parece obvia: sí. “Vayamos al estudio que hicieron en la Universidad de Virginia”, acota. “Imaginen que tienen que programar un coche autónomo, con inteligencia artificial (IA). Un día se queda sin frenos delante de un paso/cebra por el que cruzan ocho individuos. ¿Qué es más ético?, ¿que el coche atropelle a un grupo de tres peatones o que atropelle a un grupo de cinco?”
“Tres”, responden.
“Ya. ¿Y si esos tres son niños y los otros cinco son jubilados de 90 años, matar a un grupo de tres es hacer el menor daño posible?”
Dudan. “Todo ser humano tiene dignidad. Pero… ¿alguno tiene más dignidad que otro? A ver… les propongo un caso concreto: por un paso/cebra circulan una anciana, un enfermo, un ejecutivo y un ladrón. ¿A cuál de ellos se llevaría por delante como mal menor un coche autónomo?”
“Al enfermo”, dice uno. “Al ladrón”, otra. “No, porque el ladrón tiene posibilidad de reinsertarse en la sociedad, en cambio el enfermo no”, dice el primero. “Es un poco duro”, ella. “Estoy siendo racional y se ponen sentimentales. La ética no se basa en sentimientos, son subjetivos”, él.
“Tu posición se basa en la optimización del beneficio económico”.
“Sí. En eso estoy pensando”.
“¿Entonces todo se reduce a una cuestión de dinero?” “¿En sanidad pública no lo tienen en cuenta para tomar decisiones?”
“El factor económico se tiene en cuenta. Por eso pienso que si el coche autónomo se tiene que programar para hacer el menor mal posible, decidirá no quién de los cuatro debe morir, sino quiénes son los tres que cuesta menos salvar”. “Total, que la Universidad de Virginia con sus coche inteligentes tiene a todo alumno de Filosofía obsesionado con la pregunta de a quién o cuántos hay que matar, añade la profesora de Ética. Supongo que ustedes ya habrán sacado sus conclusiones sobre cómo programar un coche inteligente”.
¿Usted sacó las suyas, lector? ¿Por qué no programar al coche para que se autodestruya en lugar de matar a nadie? Si no podemos resolverlo nosotros, ¿podrá hacerlo correctamente la IA?