Cómo nuestros datos codifican el racismo sistemático

 A menudo me han dicho: «Los datos no mienten». Sin embargo, esa nunca ha sido mi experiencia. Para mí, los datos casi siempre mienten. Los resultados de búsqueda de imágenes de Google para «piel sana» muestran solo mujeres de piel clara, y una consulta sobre «chicas negras» todavía arroja pornografía. El conjunto de datos de caras de CelebA tiene etiquetas de «nariz grande» y «labios grandes» que se asignan de manera desproporcionada a rostros femeninos de piel más oscura como la mía. Los modelos entrenados por ImageNet me etiquetan como una «mala persona», un «adicto a las drogas» o un «fracasado». A los conjuntos de datos para detectar el cáncer de piel les faltan muestras de tipos de piel más oscuros.

La supremacía blanca a menudo aparece violentamente, en disparos en un Walmart abarrotado o en un servicio religioso, en el comentario agudo de una acusación alimentada por el odio o un empujón en la calle, pero a veces adopta una forma más sutil, como estas mentiras. Cuando aquellos de nosotros que construimos sistemas de IA continuamos permitiendo que la mentira descarada de la supremacía blanca se incruste en todo, desde cómo recopilamos datos hasta cómo definimos conjuntos de datos y cómo elegimos usarlos, significa una tolerancia inquietante.

Las personas que no son blancas no son atípicas. A nivel mundial, somos la norma, y ​​esto no parece que vaya a cambiar pronto. Los conjuntos de datos construidos tan específicamente en y para espacios en blanco representan la realidad construida, no la natural. Tener la precisión calculada en ausencia de mi experiencia vivida no solo me ofende, sino que también me pone en peligro real.

Datos corruptos

En un artículo de investigación titulado «Datos sucios, malas predicciones», la autora principal, Rashida Richardson, describe un escenario alarmante: los recintos policiales sospechosos o confirmados de haber participado en prácticas «corruptas, racistas o ilegales» continúan contribuyendo con sus datos al desarrollo de nuevos sistemas automatizados destinados a ayudar a los agentes a tomar decisiones policiales.

https://www.technologyreview.com/2020/12/10/1013617/racism-data-science-artificial-intelligence-ai-opinion/

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Crea tu sitio web con WordPress.com
Comenzar
A %d blogueros les gusta esto: