EL MITO DE LA COMPLETA JUSTICIA DE LA IA

La idea de equidad y justicia tiene raíces largas y profundas en la civilización occidental y está fuertemente ligada a la ética. Por lo tanto, no es extraño que sea fundamental para el debate actual sobre la ética del desarrollo y el uso de sistemas de inteligencia artificial. Dado que a menudo asociamos la equidad con la coherencia y la precisión, la idea de que nuestras decisiones y decisiones que nos afectan pueden volverse más justas al reemplazar el juicio humano por sistemas automatizados y numéricos, por lo tanto, es atractiva. Sin embargo, como dijo recientemente Laurie Anderson: «Si cree que la tecnología resolverá sus problemas, no comprende la tecnología y no comprende sus problemas». [1] La IA no es mágica, y sus resultados están fundamentalmente limitados por las convicciones y expectativas de quienes la construyen, gestionan, despliegan y utilizan. Lo que hace que sea crucial que comprendamos los mecanismos detrás de los sistemas y sus capacidades de decisión.

Actualmente, la búsqueda de una IA justa es muy activa. Uno que involucra a muchos investigadores, reuniones y conferencias (de los cuales FAccT [2] es el más conocido) y se refiere a la noción de que un algoritmo es justo, si sus resultados son independientes de variables dadas, especialmente aquellas consideradas sensibles, como los rasgos de individuos que no deben correlacionarse con el resultado (es decir, género, etnia, orientación sexual, discapacidad, etc.). Sin embargo, nada es 100% justo en el 100% de las situaciones y, debido a la compleja conexión en red, garantizar la justicia para uno (grupo) puede generar injusticia para los demás. Además, lo que consideramos justo a menudo depende de los rasgos de los individuos. Un ejemplo obvio son los servicios sociales. La mayoría de la gente cree en la necesidad de algún tipo de servicio social, ya sea para niños, ancianos, enfermos o pobres. Y muchos de nosotros nos beneficiaremos de los servicios sociales al menos una vez en la vida. La toma de decisiones en la atribución de beneficios sociales depende de características individuales como la edad, los ingresos o los problemas crónicos de salud. Sin embargo, los enfoques de equidad algorítmica enfatizan demasiado conceptos como la igualdad y no abordan adecuadamente el cuidado y la preocupación por los demás.

Hace muchos años, participé en un proyecto en la escuela básica de mis hijos que tenía como objetivo ayudar a los niños a desarrollar estándares de equidad, siguiendo aproximadamente el modelo de las etapas de desarrollo moral de Kohlberg. Rápidamente se hizo evidente que los niños de 6 a 12 años entienden fácilmente que la justicia viene en muchos «sabores»: si se les da galletas para dividir entre todos los niños de la clase, el principio principal era la igualdad, es decir, dar a cada niño la misma cantidad de galletas. Pero también entendieron y aceptaron el concepto de equidad: por ejemplo, al decidir que un compañero de escuela con dislexia debería tener más tiempo para realizar un examen escolar. Desafortunadamente, para el algoritmo promedio, el sentido común y el conocimiento del mundo están a muchos años luz de distancia del de un niño de seis años, y cambiar entre equidad e igualdad dependiendo de cuál sea el mejor enfoque de la equidad en una situación dada, rara vez es una característica de toma de decisiones algorítmica.

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Crea tu sitio web con WordPress.com
Comenzar
A %d blogueros les gusta esto: