Los algoritmos de vigilancia predictivos son racistas. Necesitan ser desmantelados

La falta de transparencia y los datos de capacitación sesgados significan que estas herramientas no son adecuadas para su propósito. Si no podemos solucionarlos, debemos deshacernos de ellos.

La desigualdad y el mal uso del poder policial no solo se desarrollan en las calles o durante los disturbios escolares. Para Milner y otros activistas, la atención se centra ahora en dónde existe el mayor potencial de daños duraderos: herramientas policiales predictivas y el abuso de datos por parte de las fuerzas policiales. Varios estudios han demostrado que estas herramientas perpetúan el racismo sistémico y, sin embargo, todavía sabemos muy poco acerca de cómo funcionan, quién las usa y con qué propósito. Todo esto debe cambiar antes de que pueda llevarse a cabo un ajuste de cuentas adecuado. Afortunadamente, la marea puede estar cambiando.
Hay dos tipos generales de herramienta de vigilancia predictiva. Los algoritmos basados ​​en la ubicación se basan en enlaces entre lugares, eventos y tasas de criminalidad históricas para predecir dónde y cuándo es más probable que ocurran delitos, por ejemplo, en ciertas condiciones climáticas o en grandes eventos deportivos. Las herramientas identifican los puntos calientes, y la policía planifica patrullas alrededor de estos avisos. Uno de los más comunes, llamado PredPol, que es utilizado por docenas de ciudades en los EE. UU., Divide las ubicaciones en bloques de 500 por 500 pies y actualiza sus predicciones a lo largo del día, una especie de pronóstico del tiempo delictivo.
Otras herramientas se basan en datos sobre personas, como su edad, sexo, estado civil, historial de abuso de sustancias y antecedentes penales, para predecir quién tiene una alta probabilidad de estar involucrado en actividades criminales futuras. Estas herramientas basadas en la persona pueden ser utilizadas por la policía, para intervenir antes de que ocurra un delito, o por los tribunales, para determinar durante las audiencias previas al juicio o la sentencia si es probable que alguien que ha sido arrestado reincida. Por ejemplo, una herramienta llamada COMPAS, utilizada en muchas jurisdicciones para ayudar a tomar decisiones sobre la libertad preventiva y la sentencia, emite un puntaje estadístico entre 1 y 10 para cuantificar la probabilidad de que una persona sea arrestada nuevamente si es liberada.
El problema reside en los datos de los que se alimentan los algoritmos. Por un lado, los algoritmos predictivos son fácilmente sesgados por las tasas de arresto. Según las cifras del Departamento de Justicia de EE. UU., Tiene más del doble de probabilidades de ser arrestado si es negro que si es blanco. Una persona negra tiene cinco veces más probabilidades de ser detenida sin causa justa que una persona blanca. El arresto masivo en Edison Senior High fue solo un ejemplo de un tipo de respuesta policial desproporcionada que no es infrecuente en las comunidades negras.
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Ética: Un año decepcionante en resumen

2019 ha sido un año de críticas a loas grandes firmas tecnológicas por escándalos y prácticas cuestionables. Han surgido incuestionables problemas sobre

  • reconocimiento facial (Facial Recognition Technolologies FRT), que se ha prohibido en varias ciudades comenzando por San Francisco, California. 
  • relaciones y condiciones laborales pésimas en los grandes fabricantes como Facebook y Amazon, así como su cuestionable comportamiento y modelo de negocio
  • Consejos éticos: empresas como Google han creado consejos éticos, aunque duró solo una semana. La UE ha publicado unas Guías pata una IA confiable. Expertos han llamado a estas prácticas «ethical washing machine», blanqueo ético
  • Percepción pública: los ciudadanos van siendo cada vez más conscientes de los riesgos que implica la IA. El 56% de los canadienses creen que empresas como Facebook y Google están «empeorando la sociedad»

Noticia
https://www.cigionline.org/articles/tech-ethics-disappointing-year-review

*****, AI FATE (fairness accuracy transparency ethics), AI Forecast, AI Report, Eng, Eth jobs, Eth Privacy,

por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

2019-09 Andrew Ng at Amazon re:MARS 2019

In eras of technological disruption, leadership matters.

 Andrew Ng speaks about the progress of AI, how to accelerate AI adoption, and what’s around the corner for AI at Amazon re:MARS 2019 in Las Vegas, California.

https://www.deeplearning.ai/blog/andrew-ng-at-amazon-remars-2019/?utm_campaign=BlogAndrewReMarsSeptember12019&utm_content=100648184&utm_medium=social&utm_source=linkedin&hss_channel=lcp-18246783

*****, AI  for Good, AI FATE (fairness accuracy transparency ethics), AI Forecast, AI Techology advance, AI Training, Business, Data, PersonOfInterest,

Crea tu sitio web con WordPress.com
Comenzar