¿Cómo deberían los agentes artificiales tomar decisiones arriesgadas en nuestro nombre?

¿Deben las respuestas de los agentes artificiales a las decisiones difíciles coincidir con nuestras propias intuiciones morales? Johanna Thoma considera las dificultades que entraña la programación de máquinas para afrontar el riesgo, y cómo las cosas se ven diferentes desde un punto de vista global.

Un coche autoconducido está a punto de chocar con un obstáculo, lo que mataría a sus pasajeros. La única manera de evitar este resultado sería desviarse hacia un lado, matando al mismo número de transeúntes inocentes. ¿Cómo debería decidirlo? ¿Y si el grupo de transeúntes es mayor o menor que los pasajeros? ¿Y si los transeúntes son niños? Entre enero de 2016 y julio de 2020, el sitio web Moral Machine del MIT recopiló las respuestas de personas de todo el mundo a dilemas morales como estos a los que podrían enfrentarse los coches autoconducidos. La esperanza de los investigadores implicados era que la recopilación de estos datos pudiera informar de forma útil sobre la forma en que se programan los agentes artificiales para tomar decisiones en escenarios de elección moralmente significativos.

El proyecto ha sido controvertido por varias razones. Por un lado, los escenarios describen situaciones de elección extremas a las que rara vez se enfrentan los coches autoconducidos o los conductores humanos. Tal vez sea más importante centrar los recursos en conseguir un buen equilibrio de los riesgos en situaciones de conducción más ordinarias (y luego razonar potencialmente a partir de ellas hasta los casos extremos, en lugar de hacerlo a la inversa). Y lo que es más preocupante, los escenarios tampoco son representativos de las situaciones más extremas en las que podrían encontrarse los coches autoconducidos. Por ejemplo, no presentan incertidumbre, aunque los coches autoconducidos hacen proyecciones probabilísticas de los movimientos de los objetos de su entorno. Y, por último, se puede ser escéptico en general con el enfoque empírico de la ética de la IA que ejemplifica el proyecto. Los juicios morales de las personas pueden ser poco fiables por todo tipo de razones, en particular cuando se les pregunta por situaciones sobre las que nunca han deliberado en sus propias vidas.

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Crea tu sitio web con WordPress.com
Comenzar
A %d blogueros les gusta esto: