Center for Applied Data Ethics sugiere tratar la IA como una burocracia

 Un artículo reciente del Center for Applied Data Ethics (CADE) de la Universidad de San Francisco insta a los profesionales de la IA a adoptar términos de la antropología al revisar el rendimiento de grandes modelos de aprendizaje automático. La investigación sugiere usar esta terminología para interrogar y analizar la burocracia, los estados y las estructuras de poder con el fin de evaluar críticamente el desempeño de los grandes modelos de aprendizaje automático con el potencial de dañar a las personas.

“Este documento centra el poder como uno de los factores que los diseñadores deben identificar y con los que deben luchar, junto con las conversaciones en curso sobre sesgos en los datos y el código, para comprender por qué los sistemas algorítmicos tienden a volverse inexactos, absurdos, dañinos y opresivos. Este documento enmarca los sistemas algorítmicos masivos que dañan a los grupos marginados como funcionalmente similares a estados administrativos masivos y en expansión que James Scott describe en Seeing Like a State ”, escribió el autor.

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Crea tu sitio web con WordPress.com
Comenzar
A %d blogueros les gusta esto: