La IA ya está tomando decisiones morales por nosotros. ¿Y ahora qué?

¿Necesitamos que la inteligencia artificial nos diga qué está bien y qué está mal? La idea puede parecerle repulsiva. Muchos consideran que su moral, sea cual sea la fuente, es fundamental para su persona. No es algo que se pueda externalizar a una máquina. Pero todo el mundo se enfrenta a situaciones moralmente inciertas y, en ocasiones, buscamos la opinión de otros. Podemos recurrir a alguien a quien consideramos una autoridad moral, o imaginar lo que podría hacer en una situación similar. También podemos recurrir a formas de pensamiento estructuradas -teorías éticas- para que nos ayuden a resolver el problema. Tal vez una inteligencia artificial podría servir como el mismo tipo de guía, si confiáramos lo suficiente en ella.

Incluso si no buscamos el consejo moral de una IA, es un hecho que cada vez más IAs tienen que tomar sus propias decisiones morales. O, al menos, decisiones que tienen consecuencias significativas para el bienestar humano, como clasificar los currículos para reducir la lista de candidatos a un puesto de trabajo o decidir si se concede un préstamo a alguien.1 Es importante diseñar IAs que hagan juicios éticos sólo por esta razón.

«Convertirse en un robot» es «malo», pero «convertirse en un ciborg» es «aceptable».

Recientemente, algunos científicos enseñaron a un software de inteligencia artificial, llamado Delfos (por el antiguo santuario religioso griego), a hacer pronunciamientos morales. Escriba cualquier acción en él, incluso un estado del ser, como «ser adoptado», y Delphi lo juzgará («Está bien»). Delphi es un «modelo moral de sentido común» que puede razonar bien sobre «situaciones cotidianas complicadas», según Liwei Jiang, estudiante de doctorado en informática de la Universidad de Washington, que dirigió la investigación. Su artículo2 , publicado en octubre como preimpresión en arXiv, fue retuiteado más de mil veces después de que lo compartiera en Twitter.

Los juicios de Delphi se basan en el aprendizaje automático entrenado en un conjunto de datos que los investigadores llaman Commonsense Norm Bank. Este banco, basado en cinco conjuntos de datos a gran escala, contiene millones de juicios morales de los estadounidenses, es decir, lo que la gente piensa realmente sobre lo que está bien y lo que está mal. Delphi no se limita a regurgitar las respuestas que se piden explícitamente a los encuestados, sino que generaliza a partir de ellas. (Con cada respuesta, ofrece este descargo de responsabilidad: «Las respuestas de Delphi se extrapolan automáticamente a partir de una encuesta de trabajadores de la multitud de EE.UU. y pueden contener resultados inapropiados u ofensivos»).

Si escribes algo a lo que probablemente nadie haya respondido antes, como «golpear a un ocelote para conseguir juguetes», puede dar una respuesta (en este caso, «está mal»). Curiosamente, Delphi dice que «convertirse en un robot» es «malo», pero «convertirse en un ciborg» es «aceptable». Las respuestas de Delphi fueron examinadas por calificadores y obtuvieron una impresionante tasa de precisión del 92,1%, la más alta hasta la fecha de cualquier sistema de IA ética. Esto contrasta con el rendimiento de un popular modelo lingüístico llamado GPT-3, que obtuvo un 52,3% de precisión. Esto sugiere, escriben los investigadores, «que la escala masiva por sí sola no dota a los modelos lingüísticos neuronales preentrenados de valores humanos».

Sin embargo, los científicos de Delphi consideran que incluso esta alta precisión es insuficiente. Jiang y sus colegas descubrieron que, tras sondear sistemáticamente las respuestas de Delphi, éste no era «inmune a los prejuicios sociales de nuestro tiempo, y puede responder por defecto a los estereotipos y prejuicios de nuestra sociedad que marginan a determinados grupos sociales y etnias». Un ejemplo podría ser la forma en que Delphi trata las declaraciones irreligiosas. Si escribes: «Decirle a un cristiano que Dios no existe», Delphi dice: «Está bien». Pero si escribes «Decirle a un musulmán que Dios no existe», Delphi dice: «Está mal». Esto coincide con otros proyectos de aprendizaje automático que heredan el sesgo de los datos de los que aprende el software.

Para Jiang, esto es inaceptable porque uno de sus objetivos de investigación a largo plazo, como afirma en su página web, es «avanzar en la IA para impulsar un impacto social positivo». Delphi no es lo suficientemente inclusivo desde el punto de vista social. «La realidad de que Delphi no siempre cumple con estas expectativas», escriben, «señala una dirección convincente para la investigación futura». Quizá lo más urgente a mejorar sea el conjunto de datos, que, reconocen los investigadores, «refleja principalmente las culturas de habla inglesa en los Estados Unidos del siglo XXI». Ampliar el rango de sensibilidad moral podría ayudar a aumentar la precisión ética de Delphi.

¿Está bien hacer cosas desagradables, o no?

Es decir, si por «precisión» se entiende una recreación de la moralidad humana, no el bien y el mal reales. Las personas de las culturas angloparlantes de EE.UU. de hoy pueden seguir siendo probablemente más de izquierdas que lo que podríamos obtener de una muestra representativa real de la humanidad. Si tratáramos de estudiar la moralidad tal y como la ve la humanidad en su conjunto, esa muestra tendría que ser representativa de personas de todo el planeta». Entrenado con estos datos, Delphi podría emitir más juicios cuestionables o perturbadores, no menos.

En Twitter, Jia

*** Translated with http://www.DeepL.com/Translator (free version) ***

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Crea tu sitio web con WordPress.com
Comenzar
A %d blogueros les gusta esto: