Diseña un sitio como este con WordPress.com
Comenzar

Center for Applied Data Ethics sugiere tratar la IA como una burocracia

 Un artículo reciente del Center for Applied Data Ethics (CADE) de la Universidad de San Francisco insta a los profesionales de la IA a adoptar términos de la antropología al revisar el rendimiento de grandes modelos de aprendizaje automático. La investigación sugiere usar esta terminología para interrogar y analizar la burocracia, los estados y las estructuras de poder con el fin de evaluar críticamente el desempeño de los grandes modelos de aprendizaje automático con el potencial de dañar a las personas.

“Este documento centra el poder como uno de los factores que los diseñadores deben identificar y con los que deben luchar, junto con las conversaciones en curso sobre sesgos en los datos y el código, para comprender por qué los sistemas algorítmicos tienden a volverse inexactos, absurdos, dañinos y opresivos. Este documento enmarca los sistemas algorítmicos masivos que dañan a los grupos marginados como funcionalmente similares a estados administrativos masivos y en expansión que James Scott describe en Seeing Like a State ”, escribió el autor.

Anuncio publicitario

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

A %d blogueros les gusta esto: