Por qué la tecnología no puede resolver la equidad algorítmica (1/3): brechas entre cómo los científicos informáticos y los filósofos éticos definen la equidad

 A medida que los algoritmos de aprendizaje automático se utilizan cada vez más para informar decisiones críticas en dominios de alto impacto, ha aumentado la preocupación de que sus predicciones puedan discriminar injustamente en función de atributos legalmente protegidos, como la raza y el género. Los académicos han respondido introduciendo numerosas definiciones matemáticas de equidad para probar el algoritmo. Se han introducido varias herramientas para probar automáticamente las predicciones del algoritmo contra varias definiciones de equidad y proporcionar informes de «pasa / falla».

Sin embargo, estos esfuerzos no han logrado ningún consenso sobre cómo abordar el desafío de los resultados injustos en las decisiones algorítmicas. Dado que es matemáticamente imposible cumplir algunas de las condiciones de equidad simultáneamente, los informes a menudo proporcionan información contradictoria sobre la equidad del algoritmo. Las técnicas de “eliminación de sesgos” (pre, in y posprocesamiento) suponen que el sesgo “inaceptable” puede identificarse, separarse y eliminarse quirúrgicamente fácilmente, pero la realidad no es tan simple.

https://ukfinancialservicesinsights.deloitte.com/post/102gkg2/why-technology-cannot-solve-algorithmic-fairness-1-3-gaps-between-how-computer

Nueva antología analiza la IA ética y fiable en la UE

 La antología analiza en qué medida las nociones de IA ética y confiable, presentadas por el Grupo de expertos de alto nivel en inteligencia artificial y la Comisión Europea, han influido en las estrategias de IA en Portugal, Países Bajos, Italia, República Checa, Polonia, Noruega como así como los países nórdicos en general.

El punto de partida de la antología es el enfoque de la Comisión Europea sobre «IA confiable», expresado en las directrices de la Comisión Europea para una IA ética y confiable, en las 33 recomendaciones de política e inversión de la Comisión para una IA confiable, así como en el Libro Blanco de la Comisión sobre Inteligencia Artificial. . Una pregunta central y orientadora es en qué medida los elementos de las Directrices éticas, como los principios éticos y los requisitos clave, se muestran en la estrategia nacional. Además, los autores examinan cómo los países hablan y promueven la IA en términos de aplicabilidad, conciencia del consumidor, espíritu empresarial, preocupación por el medio ambiente y desigualdad.

https://wasp-hs.org/news/new-anthology-analyses-ethical-and-trustworty-ai-in-eu/

Algoritmos: se insta al sector público a ser abierto sobre el papel en la toma de decisiones

 Los organismos del sector público deben ser más abiertos sobre el uso de algoritmos en la toma de decisiones, se les ha dicho a los ministros.

Un organismo asesor del gobierno dijo que se necesitaba una mayor transparencia y responsabilidad en todos los ámbitos de la vida sobre el uso de modelos informáticos en las políticas.

Los funcionarios deben comprender los límites y los riesgos de sesgo de los algoritmos, dijo el Centro de Ética e Innovación de Datos.

Boris Johnson culpó a un algoritmo «mutante» del caos sobre las calificaciones escolares en Inglaterra este verano.

Ofqual y otros reguladores de exámenes en todo el Reino Unido se vieron obligados a dar marcha atrás tras una protesta pública por el uso de un programa informático para determinar las calificaciones de nivel A y GCSE después de la cancelación de los exámenes.

https://www.bbc.com/news/uk-politics-55105741

Usar la inteligencia artificial para tomar decisiones: abordar el problema del sesgo algorítmico

La IA es cada vez más utilizada por el gobierno y empresas para tomar decisiones que afectar los derechos de las personas, incluso en el provisión de bienes y servicios, así como otra importante toma de decisiones como contratación, seguridad social y vigilancia. Donde surge el sesgo algorítmico en estos procesos de toma de decisiones, puede dar lugar a errores. Especialmente en la toma de decisiones de alto riesgo, los errores pueden causar un daño real. El daño puede ser  particularmente grave si una persona es injustamente desfavorecidos sobre la base de su raza, edad, sexo u otro caracteristicas. En algunas circunstancias, esto puede equivaler a ilegal discriminación y otras formas de violación de los derechos humanos.

https://humanrights.gov.au/sites/default/files/document/publication/ahrc_technical_paper_algorithmic_bias_2020.pdf

Un enfoque legal de los "algoritmos discriminación positiva"

Una rama separada de la jurisprudencia de acción afirmativa, vinculada a la contratación del gobierno, ha permitido durante mucho tiempo preferencias explícitas de raza y género. Las agencias federales, estatales y locales crean reservas reservadas y preferencias de licitación para los contratistas de propiedad de minorías, y esas preferencias han sido aprobadas legalmente porque las agencias podrían documentar sus propias historias de discriminación.

Ho dice que los defensores de la equidad bien podrían justificar las correcciones basadas en la raza o el género sobre la base de la discriminación pasada. Al igual que el sistema de Amazon, la mayoría de los modelos de inteligencia artificial se entrenan con datos históricos que pueden incorporar patrones pasados ​​de discriminación.

Lo que enfatiza la ley, dice Ho, es que la magnitud del ajuste debe seguir la evidencia de discriminación histórica. El precedente de contratación gubernamental permite una cuantificación explícita, lo que hace que el aprendizaje automático justo sea más factible.

Dicho de otra manera, dicen Ho y Xiang, la jurisprudencia del derecho contractual del gobierno puede ofrecer un escape de la trampa de la ceguera y un camino hacia la justicia a través de la conciencia.

https://hai.stanford.edu/blog/legal-approach-affirmative-algorithms

Mind the Gap: Informe final del Grupo de trabajo sobre igualdad

 Los gobiernos y las empresas utilizan cada vez más los algoritmos para tomar decisiones ‘automatizadas’ basadas en datos que pueden tener consecuencias de gran alcance con poca transparencia, escrutinio o responsabilidad. Aunque la apariencia superficial de objetividad de los algoritmos parece eliminar los sesgos en la toma de decisiones humana, los algoritmos siempre reflejan las suposiciones de quienes los diseñaron y los patrones en los datos en los que están entrenados.

Sin intervención ni supervisión, el estado natural de las tecnologías basadas en datos es replicar patrones pasados ​​de desigualdad estructural que están codificados en datos y proyectarlos hacia el futuro. Es vital que los responsables de la formulación de políticas comprendan esto. Para evitar este resultado, quienes usan algoritmos para tomar decisiones que afectan la vida de las personas, desde el nivel educativo hasta la contratación para pagar y los ascensos, deben tomar medidas activas y deliberadas para garantizar que los algoritmos promuevan la igualdad en lugar de afianzar la desigualdad.

Nuestro análisis muestra que el marco legal y el régimen regulatorio actuales no se han mantenido al día con los desarrollos recientes en lo que la tecnología es capaz de hacer, o con cómo se implementa de forma rutinaria. En particular, la legislación vigente en materia de igualdad y protección de datos es insuficiente para brindar protección y compensación a quienes se encuentran en desventaja por los supuestos incorporados en los algoritmos.

https://www.ifow.org/publications/mind-the-gap-the-final-report-of-the-equality-task-force

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


La equidad de la IA no es solo una cuestión ética

 Para aprovechar plenamente las oportunidades rentables de la IA, primero debemos comprender de dónde provienen los sesgos. A menudo se asume que la tecnología es neutral, pero la realidad está lejos de serlo. Los algoritmos de aprendizaje automático son creados por personas, todas con sesgos. Nunca son completamente «objetivos»; más bien reflejan la visión del mundo de quienes los construyen y los datos con los que se alimentan.

Los juicios humanos sesgados pueden afectar los sistemas de IA de dos formas diferentes. El primero es el sesgo en los datos de los que aprenden los sistemas. Puede ver este juego por sí mismo: realice una búsqueda de imágenes en Google para «corte de pelo profesional» y otra para «corte de pelo no profesional». El «corte de pelo profesional» arroja resultados que son exclusivamente de hombres blancos, mientras que el «corte de pelo no profesional» tiene mucha más diversidad racial y de género. (Este problema fue descubierto originalmente por los usuarios de Twitter en 2016).

 ¿Es realmente cierto que solo los hombres blancos tienen cortes de pelo profesionales? Por supuesto no. Los resultados de Google se basan en artículos escritos sobre cortes de pelo profesionales. Reflejan decisiones editoriales humanas para incluir y priorizar a los hombres blancos. Por tanto, una búsqueda supuestamente «neutral» proporciona un resultado decididamente innecesario. El sesgo basado en normas históricas es bastante común.

Podemos prevenir parte del daño utilizando principios éticos de diseño de IA. También debemos asegurarnos de que nuestros algoritmos sean explicables, auditables y transparentes. Así como no aceptaríamos que los humanos tomen decisiones importantes que afecten a otros sin ningún tipo de supervisión o responsabilidad, no deberíamos aceptarlo de los algoritmos.

https://hbr.org/2020/10/ai-fairness-isnt-just-an-ethical-issue

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Una instantánea de las fronteras de la equidad en el aprendizaje automático

 La motivación detrás del artículo es destacar las direcciones de investigación clave en Fair ML que proporcionan una base científica para comprender el sesgo algorítmico. Estos incluyen, en general, el sesgo de identificación codificado en los datos sin acceso a los resultados (por ejemplo, tenemos acceso a los datos sobre quién fue arrestado y no quién cometió el crimen), el enfoque utilitario para la optimización y cómo se dirige exclusivamente a la mayoría sin tener en cuenta grupos minoritarios y la ética de la exploración. El papel de la exploración es clave, ya que para validar nuestras predicciones debemos tener datos que enumeren cómo se desarrolló el resultado. Esto plantea varias preguntas importantes como: ¿El impacto de la exploración se siente abrumadoramente por un subgrupo? Si consideramos que los riesgos de la exploración son demasiado altos, ¿cuánto retrasa el aprendizaje la falta de exploración? ¿Es ético sacrificar el bienestar de las poblaciones actuales por el bienestar percibido de las poblaciones futuras?

La siguiente dirección de investigación importante es la que busca formalizar la definición de equidad. Hay varias definiciones propuestas, la más popular es la definición estadística de equidad. Esta formulación impone la paridad en alguna medida estadística elegida en todos los grupos de los datos. La simplicidad, la naturaleza libre de suposiciones y la facilidad con la que se puede verificar una asignación estáticamente justa hace que esta definición sea popular. Sin embargo, una deficiencia importante es la imposibilidad demostrada de igualar simultáneamente múltiples medidas estadísticas deseables. Una definición estadística de equidad también puede ser computacionalmente costosa de modelar.

La segunda noción popular es la de equidad individual, que exige que, para una tarea determinada, el algoritmo trate a las personas que son similares de manera similar. Si bien esto es más rico, semánticamente, hace suposiciones sólidas que son difíciles de realizar en la práctica.

https://montrealethics.ai/a-snapshot-of-the-frontiers-of-fairness-in-machine-learning-research-summary/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Sobre la privacidad y la equidad algorítmica del aprendizaje automático y la inteligencia artificial

 Cuando grandes cantidades de datos de usuario recopilados a escala industrial continúan generando preocupaciones constantes sobre la privacidad, la necesidad de abordar seriamente los problemas de privacidad y protección de datos con respecto al procesamiento de datos es más importante que nunca. Los datos se introducen cada vez más en modelos de aprendizaje automático (es decir, «inteligencia artificial» que facilita la toma de decisiones automática), lo que puede generar muchas preocupaciones, incluso si las decisiones tomadas por dichos modelos son justas para los usuarios. De hecho, la investigación no solo indica que los modelos de aprendizaje automático pueden filtrar los datos de usuario aprendidos, incluidos los datos personales. Las preocupaciones sobre los resultados sesgados y la equidad (cómo veo la «equidad» se discute a continuación) también son cada vez más evidentes y, sin duda, contribuyen a las crecientes preocupaciones sobre los posibles riesgos de discriminación.

https://blog.lukaszolejnik.com/on-privacy-and-algorithmic-fairness-of-machine-learning-and-artificial-intelligence/amp/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Cómo hacer que los algoritmos sean justos cuando no sabes lo que hacen

Las decisiones que cambian la vida están sucediendo en la oscuridad. Los algoritmos de aprendizaje automático ahora determinan las decisiones desde las solicitudes de préstamos hasta los diagnósticos de cáncer. En Francia, colocan a los niños en las escuelas. En Estados Unidos, determinan las penas de prisión. Pueden establecer puntajes de crédito y tasas de seguro, y decidir el destino de los candidatos a puestos de trabajo y los solicitantes universitarios.

Pero estos programas a menudo no rinden cuentas. Para llegar a sus decisiones, los algoritmos de aprendizaje automático construyen automáticamente modelos complejos basados en grandes conjuntos de datos, por lo que incluso las personas que los utilizan pueden no ser capaces de explicar por qué o cómo se llega a una conclusión en particular. Son una caja negra. 

Los contrafactuales son declaraciones de cómo el mundo tendría que ser diferente para que ocurra un resultado diferente: si ganara 10.000 libras esterlinas más al año, habría obtenido la hipoteca; si tuvieras un título un poco mejor, habrías conseguido el trabajo.

“Si no obtengo un préstamo, no necesariamente me importa tanto cómo funciona el algoritmo. De hecho, solo quiero saber por qué no obtuve el préstamo y tener alguna orientación sobre cómo mejorar «, dice Wachter. Las explicaciones contrafactuales pueden proporcionar esto al encontrar el cambio más pequeño posible que hubiera llevado al modelo a predecir un resultado diferente.

Fundamentalmente, las explicaciones contrafácticas dan respuestas sobre por qué se tomó una decisión sin revelar las entrañas del algoritmo. La caja negra permanece sellada. “Encuentra el punto óptimo entre información significativa y la protección de los derechos de propiedad intelectual y secretos comerciales”, dice Wachter.

https://www.wired.co.uk/article/ai-bias-black-box-sandra-wachter?s=03

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Crea tu sitio web con WordPress.com
Comenzar