LA PANDEMIA, LAS PRESTACIONES SOCIALES Y LA TOMA DE DECISIONES AUTOMATIZADA (ADM) ¿SÓLO PORQUE SEA MÁS RÁPIDO UTILIZAR UNA MÁQUINA, ES COHERENTE CON EL PRINCIPIO DE NO DISCRIMINACIÓN?

https://ai-lawhub.com/2021/04/19/the-pandemic-social-benefits-and-automated-decision-making-adm-just-because-it-is-quicker-to-use-a-machine-is-it-consistent-with-the-principle-of-non-discrimination/

Por un lado, parece una idea muy preocupante que las máquinas sean las únicas que tomen decisiones gubernamentales importantes sobre nuestros negocios, nuestras finanzas personales o nuestra seguridad.  Sin duda, si esas decisiones «salen como queremos», probablemente no nos importará demasiado el proceso en sí, ya que las decisiones rápidas y bien recibidas siempre serán aplaudidas.  Pero, ¿cómo nos sentimos cuando las decisiones que se toman sobre nosotros, por una máquina, van en nuestro detrimento o pueden estar relacionadas con características protegidas como el sexo o la raza?  ¿Nos estamos perdiendo algo si aceptamos con demasiada facilidad las decisiones de las máquinas simplemente porque tienen la ventaja de ser rápidas?

En este blog analizamos la reciente sentencia del Tribunal Administrativo en el caso R (o.t.a The Motherhood Plan) contra el Tesoro de Su Majestad[1] (Motherhood), en el que se sostiene que el Gobierno puede justificar un sistema de prestaciones potencialmente discriminatorio basado en el ADM como legítimo porque es más rápido, más barato y supuestamente más sencillo. 

Es posible que la conclusión de Motherhood sea un caso aislado y una respuesta legítima a las necesidades de emergencia del gobierno en la pandemia; pero, si no es así, y se considera que Motherhood tiene una aplicación más amplia, parece abrir la puerta a más y más gobierno por máquina. 

Entonces, ¿de qué se trata la Maternidad? 

El 30 de abril de 2020, justo cuando la pandemia se afianzaba, el Tesoro introdujo el Régimen de Ayuda a la Renta de los Autónomos (SEISS)[2], que pretendía ser un salvavidas para los autónomos cuyo negocio se había hundido, ofreciéndoles una subvención imponible.  Para tener derecho a la subvención, el Tesoro exigía que los solicitantes demostraran que se habían visto afectados negativamente «por la emergencia sanitaria, social y económica en el Reino Unido derivada del coronavirus y la enfermedad del coronavirus».

Explicación de las decisiones tomadas con IA

https://ico.org.uk/for-organisations/guide-to-data-protection/key-data-protection-themes/explaining-decisions-made-with-artificial-intelligence/

Cada vez más, las organizaciones utilizan la inteligencia artificial (IA) para apoyar o tomar decisiones sobre las personas. Si esto es algo que usted hace, o algo que está pensando, esta guía es para usted.

La guía consta de tres partes. Dependiendo de su nivel de experiencia y de la composición de su organización, algunas partes pueden ser más relevantes para usted que otras.

Parte 1: Aspectos básicos de la explicación de la IA 

Dirigida a los RPD y a los equipos de cumplimiento, la primera parte define los conceptos clave y esboza varios tipos de explicaciones. Será relevante para todos los miembros del personal que participen en el desarrollo de sistemas de IA.

Parte 2: Explicación de la IA en la práctica

Dirigida a los equipos técnicos, la segunda parte le ayuda en los aspectos prácticos de la explicación de estas decisiones y de las explicaciones a los individuos. Esta parte será útil sobre todo para los equipos técnicos de su organización, aunque su DPO y su equipo de cumplimiento también la encontrarán útil.

Parte 3: Qué significa explicar la IA para su organización 

Dirigida a la alta dirección, la tercera parte se centra en las distintas funciones, políticas, procedimientos y documentación que puede establecer para garantizar que su organización está preparada para ofrecer explicaciones significativas a las personas afectadas. Está dirigida principalmente al equipo de alta dirección de su organización, aunque su DPO y el equipo de cumplimiento también lo encontrarán útil.

La equidad de la IA es un imperativo económico y social. He aquí cómo abordarlo

Los seres humanos tenemos muchos tipos de prejuicios; confirmación, anclaje y género entre ellos. Tales sesgos pueden llevar a las personas a comportarse de manera injusta y, como tal, como sociedad tratamos de mitigarlos.

Esto es especialmente importante cuando los humanos están en la posición de tomar decisiones de alto riesgo que impactan a otros. Lo hacemos a través de una combinación de educación, pautas de conducta y regulaciones.

Ahora que la inteligencia artificial (IA) está proporcionando un número creciente de recomendaciones a los tomadores de decisiones humanos, es importante asegurarse de que, como tecnología, no esté sesgada y, por lo tanto, respete el valor de la justicia.

De hecho, aquellas iniciativas que tienen como objetivo hacer que la IA sea lo más beneficiosa posible (relacionadas con la ética de la IA) incluyen la equidad de la IA como uno de los principales temas de discusión y trabajo concreto.

Es hora de identificar y sugerir una visión más completa de la equidad de la IA; uno que cubre todas las dimensiones y explota su interrelación

—Raja Chatila
Los ejemplos abundan y van desde las Directrices éticas para la IA de confianza del Grupo de expertos de alto nivel sobre IA de la Comisión Europea hasta el enfoque del Consejo del Futuro Global del Foro Económico Mundial sobre IA para la Humanidad.

Si bien la equidad de la IA ha sido un enfoque importante para las empresas, los gobiernos, las organizaciones de la sociedad civil y las iniciativas de múltiples partes interesadas durante varios años, hemos visto una gran cantidad de enfoques diferentes a lo largo del tiempo. Cada uno de estos se ha centrado en uno o varios aspectos de la equidad de la IA.

Pero ahora es el momento de identificar y sugerir una visión más completa; uno que cubra todas las dimensiones de la equidad de la IA y explote su interrelación, en un intento por construir el marco, las técnicas y las políticas más eficaces.

Sin embargo, aquí está el punto de fricción: dado que los sistemas de IA son construidos por humanos, que recopilan los datos de entrenamiento y prueba y toman las decisiones de desarrollo, pueden, conscientemente o de otra manera, ser inyectados con sesgos. Esto, a su vez, puede conducir al despliegue de sistemas de inteligencia artificial que reflejen y amplifiquen dichos sesgos, lo que resultará en decisiones o recomendaciones que son sistemáticamente injustas para ciertas categorías de personas.

Las herramientas para mejorar la explicabilidad de los modelos de IA permiten identificar las razones detrás de las decisiones de IA y, por lo tanto, pueden ser útiles para identificar sesgos.

—Francesca Rossi
Ya existen varias herramientas técnicas que pueden ayudar aquí: detectan y mitigan el sesgo de IA sobre varios tipos de datos (texto, audio, video, imágenes y datos estructurados). De hecho, los prejuicios existentes en la sociedad pueden estar integrados en los sistemas de inteligencia artificial, y las correlaciones no deseadas entre algunas características (como el género y la aceptabilidad de los préstamos) pueden mitigarse al detectarlas y evitarlas.

Las herramientas para mejorar la explicabilidad de los modelos de IA permiten identificar las razones detrás de las decisiones de IA y, por lo tanto, también pueden ser útiles para identificar sesgos en los datos o modelos de IA. Sin embargo, los aspectos técnicos y las soluciones al sesgo de la IA constituyen solo una dimensión, y posiblemente la más fácil, de lograr la equidad de la IA.

Más allá de los tecnicismos

Lograr la equidad de la IA no es solo un problema técnico; también requiere estructuras de gobernanza para identificar, implementar y adoptar herramientas apropiadas para detectar y mitigar el sesgo en la recopilación y el procesamiento de datos, por un lado, y marcos para definir la supervisión necesaria y adecuada para cada caso de uso específico, por el otro.

Tampoco olvidemos que la noción de equidad en sí misma depende del contexto y debe definirse de acuerdo con escenarios de aplicación específicos. La definición correcta solo se puede identificar a través de una consulta de múltiples partes interesadas en la que aquellos que construyen e implementan sistemas de IA los discuten con los usuarios y las comunidades relevantes, para identificar la noción relevante de equidad.

‘Nadie me enseñó que era parcial’

Otra dimensión de la equidad de la IA se relaciona con la educación. Dado que los prejuicios humanos son en su mayoría inconscientes, cualquier camino para lograr la equidad de la IA comienza necesariamente con la creación de conciencia (educación). Los desarrolladores de inteligencia artificial deben ser conscientes de sus prejuicios y cómo podrían inyectarlos en los sistemas de inteligencia artificial durante el proceso de desarrollo.

Pero educar a los desarrolladores no es suficiente: todo el entorno que los rodea debe ser consciente de los posibles sesgos y aprender a detectarlos y mitigarlos. Se debe construir una cultura de equidad. Dentro de esto, los gerentes deben comprender cómo construir equipos de desarrolladores diversos y definir incentivos para la detección y mitigación de sesgos de IA.

¿Has leído?
La inteligencia artificial debe saber cuándo pedir ayuda humana
La inteligencia artificial hace que el pesto sea aún más delicioso
Cómo la IA puede desarrollar sus propios sesgos
Los ejecutivos y los tomadores de decisiones necesitan ayuda para comprender los problemas de sesgo de la IA y su posible impacto en los clientes, las comunidades afectadas y su propia empresa.

Esta educación debe complementarse con metodologías apropiadas, que no solo deben adoptarse, sino también aplicarse y facilitarse. Para lograr esto, las empresas deben definir el marco de gobierno interno más adecuado para sus modelos de negocio y dominios de implementación.

https://www.weforum.org/agenda/2021/01/how-to-address-artificial-intelligence-fairness/

LA INTELIGENCIA ARTIFICIAL Y SU USO EN EL SECTOR PÚBLICO

 En un momento de creciente complejidad, incertidumbre y demandas cambiantes, los gobiernos y los funcionarios públicos necesitan comprender, evaluar e incorporar nuevas formas de hacer las cosas. El OPSI les ayuda arrojando luz sobre los esfuerzos de los gobiernos por crear políticas y servicios más eficientes y adecuados y acompañándolos al momento de explorar e implementar enfoques innovadores. El gobierno puede utilizar la IA para innovar, de hecho, en muchos casos ya lo está haciendo. Por ejemplo, varios líderes a nivel mundial ya cuentan con estrategias para desarrollar la capacidad de la IA como prioridad nacional. La IA se puede utilizar para que los procesos actuales sean más eficientes y precisos. Se puede utilizar para consumir y analizar información no estructurada, como los tweets, para ayudar a los gobiernos a conocer las opiniones de los ciudadanos. Por último, al mirar hacia el futuro, será importante considerar y prepararse para las implicaciones de la IA en la sociedad, el trabajo y el propósito humano.

https://oecd-opsi.org/wp-content/uploads/2020/11/OPSI-AI-Primer-Spanish.pdf

Revisión del sesgo en la toma de decisiones algorítmicas

 Los prejuicios injustos, ya sean conscientes o inconscientes, pueden ser un problema en muchos procesos de toma de decisiones. Esta revisión considera el impacto que un uso creciente de herramientas algorítmicas está teniendo sobre el sesgo en

toma de decisiones, los pasos necesarios para gestionar los riesgos y las oportunidades que ofrece un mejor uso de los datos para mejorar la equidad. Nos hemos centrado en el uso de algoritmos en decisiones importantes sobre individuos, analizando cuatro sectores (contratación, servicios financieros, vigilancia y gobierno local) y haciendo recomendaciones transversales que tienen como objetivo ayudar a construir los sistemas adecuados para que los algoritmos mejoren, en lugar de que empeorar, la toma de decisiones.

https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/939109/CDEI_review_into_bias_in_algorithmic_decision-making.pdf

Usar la inteligencia artificial para tomar decisiones: abordar el problema del sesgo algorítmico

La IA es cada vez más utilizada por el gobierno y empresas para tomar decisiones que afectar los derechos de las personas, incluso en el provisión de bienes y servicios, así como otra importante toma de decisiones como contratación, seguridad social y vigilancia. Donde surge el sesgo algorítmico en estos procesos de toma de decisiones, puede dar lugar a errores. Especialmente en la toma de decisiones de alto riesgo, los errores pueden causar un daño real. El daño puede ser  particularmente grave si una persona es injustamente desfavorecidos sobre la base de su raza, edad, sexo u otro caracteristicas. En algunas circunstancias, esto puede equivaler a ilegal discriminación y otras formas de violación de los derechos humanos.

https://humanrights.gov.au/sites/default/files/document/publication/ahrc_technical_paper_algorithmic_bias_2020.pdf

Crea tu sitio web con WordPress.com
Comenzar