La nueva norma de transparencia de la IA del Reino Unido es un paso más hacia una IA responsable

El gobierno británico anunció la semana pasada una nueva norma de transparencia algorítmica. La medida llega tras un año en el que el programa Test and Trace del Reino Unido podía hacer un ping a tu teléfono en cualquier momento y cancelar tus planes de fin de semana, y cuando los estudiantes salieron a la calle coreando «¡Fuera el algoritmo!» después de que se cancelaran los exámenes y sus admisiones en la universidad fueran decididas por un algoritmo.

La nueva norma pretende empujar a los organismos públicos a crear transparencia sobre cómo, cuándo y dónde se toman las decisiones algorítmicas.

Unmute

Duración 

0:55

/

Hora actual 

0:28

Ajustes avanzados

Pantalla completa

Pausa

Siguiente

El uso de algoritmos para tomar decisiones en los servicios públicos está siendo objeto de un creciente escrutinio en todo el mundo. Recientemente, en el Reino Unido se ha presentado un recurso contra el Ministerio de Trabajo y Pensiones tras revelarse que un algoritmo seleccionaba de forma desproporcionada a personas discapacitadas para una revisión de fraude en las prestaciones. En EE.UU., tras años en los que los investigadores han dado la voz de alarma, los periodistas han reunido la mayor colección de pruebas de que los programas informáticos de predicción de la delincuencia que prometían estar libres de prejuicios raciales en realidad los han perpetuado.

Estos casos suelen sorprender al público y a las comunidades a las que afectan. Una encuesta del Centro para la Ética y la Innovación de los Datos reveló que el 38% del público británico no sabía que se utilizaban sistemas algorítmicos para respaldar las decisiones que utilizan datos personales para, por ejemplo, evaluar el riesgo de que alguien pueda necesitar ayuda de asistencia social. Actualmente, cuando se toma una decisión sobre ti, es muy difícil saber si la toma un humano o un algoritmo.

Ahora mismo, la única manera de saber qué sistemas se utilizan y dónde, es a través de investigaciones de periodistas, organizaciones de la sociedad civil, activistas o investigadores académicos. E incluso entonces, estos investigadores suelen obtener respuestas sólo después de muchas solicitudes de libertad de información (FOI). Se trata de un método lento y engorroso de recopilación de pruebas, con muchas posibilidades de ofuscación y confusión. Los investigadores informan de que obtienen una documentación exhaustiva sobre el uso de Microsoft Word por parte de una autoridad local, que no es precisamente la tecnología de alto riesgo que buscaban.

Incluso entre los departamentos gubernamentales, los organismos públicos y las autoridades locales hay una brecha de conocimiento; a menudo no saben qué sistemas se están utilizando y por qué, y esto impide compartir la información, los beneficios y los daños que apoyarían un ecosistema saludable de progreso consciente del riesgo.

Esta carencia fundamental de información y conocimiento es lo que ha llevado al Instituto Ada Lovelace y a otros a sugerir la creación de registros de transparencia para los sistemas algorítmicos de toma de decisiones del sector público, es decir, los sistemas que utilizan la automatización para tomar decisiones, o que apoyan significativamente a los humanos en la toma de decisiones. Un registro de transparencia reuniría la información sobre los sistemas gubernamentales en un único lugar y de forma clara y accesible, lo que permitiría el escrutinio del público, así como de los periodistas, activistas y académicos que actúan en su nombre.

Los registros de transparencia se están probando en ciudades como Ámsterdam, Helsinki, Nantes y Nueva York, y proporcionan detalles sobre sistemas que van desde los chatbots de atención sanitaria materna hasta los algoritmos para identificar la provisión de viviendas potencialmente ilegales. Estos registros forman parte de una serie de enfoques y políticas diseñados para crear una mayor responsabilidad en el uso de algoritmos en los servicios públicos que están siendo explorados por los gobiernos de todo el mundo, como Canadá, que recientemente introdujo una evaluación de impacto algorítmico para los organismos del sector público.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Una profesora de Duke gana un premio de inteligencia artificial de un millón de dólares, un «nuevo Nobel

https://pratt.duke.edu/about/news/rudin-squirrel-award

Mientras que muchos estudiosos del campo en desarrollo del aprendizaje automático se centraban en mejorar los algoritmos, Rudin quería utilizar el poder de la IA para ayudar a la sociedad. Decidió buscar oportunidades para aplicar las técnicas de aprendizaje automático a problemas sociales importantes y, en el proceso, se dio cuenta de que el potencial de la IA se libera mejor cuando los humanos pueden mirar dentro y entender lo que está haciendo.

Ahora, tras 15 años de defensa y desarrollo de algoritmos de aprendizaje automático «interpretables» que permiten a los humanos ver el interior de la IA, las contribuciones de Rudin a este campo le han valido el premio Squirrel AI Award for Artificial Intelligence for the Benefit of Humanity, dotado con un millón de dólares, otorgado por la Asociación para el Avance de la Inteligencia Artificial (AAAI). Fundada en 1979, la AAAI es la principal sociedad científica internacional al servicio de los investigadores, profesionales y educadores de la IA.

«Sólo los reconocimientos de renombre mundial, como el Premio Nobel y el Premio A.M. Turing de la Association of Computing Machinery, conllevan recompensas monetarias de un millón de dólares. El trabajo de la profesora Rudin pone de manifiesto la importancia de la transparencia de los sistemas de IA en ámbitos de alto riesgo.  Su valentía a la hora de abordar cuestiones controvertidas pone de manifiesto la importancia de la investigación para abordar los retos críticos del uso responsable y ético de la IA».

YOLANDA GIL

Rudin, profesora de ciencias de la computación y de ingeniería eléctrica e informática en Duke, es la segunda galardonada con el nuevo premio anual, financiado por la empresa de educación en línea Squirrel AI para reconocer los logros en inteligencia artificial de forma comparable a los principales premios en campos más tradicionales.

Se la cita por su «trabajo científico pionero en el ámbito de los sistemas de IA interpretables y transparentes en implantaciones en el mundo real, la defensa de estas características en áreas muy sensibles como la justicia social y el diagnóstico médico, y por servir de modelo para investigadores y profesionales».

«Sólo los reconocimientos de renombre mundial, como el Premio Nobel y el Premio A.M. Turing de la Association of Computing Machinery, conllevan recompensas monetarias al nivel del millón de dólares», dijo la presidenta del comité de premios de la AAAI y ex presidenta, Yolanda Gil. «El trabajo de la profesora Rudin pone de manifiesto la importancia de la transparencia de los sistemas de IA en ámbitos de alto riesgo.  Su valentía a la hora de abordar cuestiones controvertidas pone de manifiesto la importancia de la investigación para abordar los retos críticos del uso responsable y ético de la IA.»

¿POR QUÉ LAS EMPRESAS TIENEN PROBLEMAS CON LA INTELIGENCIA ARTIFICIAL ÉTICA?

https://news.northeastern.edu/2021/09/23/ethical-artificial-intelligence/
Algunas de las organizaciones más importantes del mundo, desde las Naciones Unidas hasta Google y el Departamento de Defensa de Estados Unidos, proclaman con orgullo su buena fe en lo que respecta al uso ético de la inteligencia artificial.
Pero para muchas otras organizaciones, hablar por hablar es la parte fácil. Un nuevo informe elaborado por un par de investigadores del Northeastern analiza cómo la articulación de los valores, los conceptos éticos y los principios es sólo el primer paso para abordar los desafíos de la IA y la ética de los datos. El trabajo más difícil es pasar de las promesas vagas y abstractas a los compromisos sustantivos que guían la acción y son medibles.
«Se ve un caso tras otro en el que una empresa tiene estas declaraciones de misión que no cumplen», dice John Basl, profesor asociado de filosofía y coautor del informe. «Su intento de hacer ética se desmorona».
ronald sandler y john basl hablan de la inteligencia artificial éticaUna nueva investigación de los profesores de Northeastern Ronald Sandler (izquierda) y John Basl (derecha) recomienda una normativa federal para ayudar a las empresas a articular sus valores y su ética con su software de inteligencia artificial. Foto de Matthew Modoono/Northeastern University
Según el informe, publicado en colaboración con el Atlantic Council, un centro de estudios no partidista de Washington, las promesas de las empresas sin una ejecución adecuada no son más que tópicos y un «lavado de cara a la ética». Las conclusiones se debatirán entre los autores y otros ponentes en un acto virtual que tendrá lugar el 23 de septiembre a mediodía, hora del este.
El informe recomienda una mayor transparencia para ayudar a los ciudadanos a entender cómo y por qué se toman las decisiones de IA sobre ellos. «Si me deniegan un préstamo y no puedo averiguar qué causó esa decisión, entonces no sé qué hacer para futuras solicitudes de préstamos», explica Basl. «La transparencia es importante».
El desarrollo y el uso éticamente problemáticos de la IA y el big data continuarán, y el sector será visto por los responsables políticos, los empleados, los consumidores, los clientes y el público como un fracaso en el cumplimiento de sus propios compromisos declarados, añade el informe.
La mayoría de las empresas tienen buenas intenciones y han hecho un buen trabajo de desarrollo de métricas formales para los puntos de referencia, como la equidad y la parcialidad, pero no son realmente capaces de determinar cuál de ellos va a cumplir sus objetivos, dice Basl.
«Una de las cosas que pretende hacer este informe es obligar a las empresas a reflejar de forma cohesionada sus valores en lugar de tratar de elegir», afirma. «No les dice cómo hacer ninguna cosa en particular, pero les proporciona un proceso por el que tienen que pasar si quieren realizar sinceramente sus valores».*** Translated with http://www.DeepL.com/Translator (free version) ***

El problema de la IA de Transparencia

https://knightcolumbia.org/content/transparencys-ai-problem

La inteligencia artificial tiene un grave problema de transparencia. La IA está transformando la gobernanza, pero sus resultados son difíciles de explicar y sus procesos son imposibles de entender para los usuarios no profesionales. 1. La IA es un término notoriamente resbaladizo. En este ensayo, estoy hablando de sistemas de software que pueden interpretar grandes cantidades de datos y determinar cómo actuar para lograr un objetivo articulado. Ver Eur. Comm’n High Level Expert Grp. en A.I., Pautas de ética para una inteligencia artificial confiable, en 36 (8 de abril de 2019). Véase también David Freeman Engstrom et al., Government by Algorithm: Artificial Intelligence in Federal Administrative Agencies, ssrn elec. j. (2020) Es más, las herramientas de inteligencia artificial en las que los gobiernos confían cada vez más para automatizar la toma de decisiones a menudo se obtienen de proveedores del sector privado, lo que agrava la incapacidad del público para determinar qué es, exactamente, lo que el gobierno está haciendo cuando utiliza la inteligencia artificial. Juntas, estas dos características han llevado a los académicos a evaluar críticamente la transparencia y la responsabilidad de las herramientas y técnicas de IA, y a tratar de mejorar el diseño y el rendimiento de la IA para satisfacer estos valores esenciales.

Sin embargo, hay poco consenso sobre lo que realmente significa la transparencia algorítmica. En un sentido técnico, los expertos han descrito las maquinaciones y determinaciones de la IA como «opacas» porque son difíciles de explicar o articular, incluso para los expertos. 3. Jenna Burrell, How the Machine «Thinks»: Understanding Opacity in Machine Learning Algorithms, big data & society, enero-junio de 2016. Pero incluso los sistemas que son técnicamente transparentes pueden permanecer opacos en un sentido legal y político. Los sistemas de decisión automatizados a menudo se adquieren en secreto o con supervisión pública limitada. Las obligaciones de gobierno abierto como la Ley de Libertad de Información y las leyes de registros públicos estatales no llegan directamente a los proveedores del sector privado que suministran tecnología de IA / ML al gobierno. Hoy en día, las empresas privadas tienen casi el monopolio de la información crítica sobre las ramificaciones éticas, legales, políticas y tecnológicas de la inteligencia artificial, con pocas responsabilidades concomitantes de divulgarla al público.4

Inteligencia artificial confiable en la educación: trampas y caminos

 En todo el mundo, las aplicaciones de inteligencia artificial (IA) están ingresando a todos los dominios de nuestras vidas, incluido el entorno educativo. Este desarrollo fue impulsado aún más por la pandemia de COVID-19, que hizo que muchas instituciones educativas dependieran de las herramientas de aprendizaje digital (habilitadas por IA) para continuar sus actividades. Si bien el uso de sistemas de inteligencia artificial puede generar numerosos beneficios, también puede implicar riesgos éticos, que aparecen cada vez más en las agendas de los legisladores. Muchos de estos riesgos son específicos del contexto y adquieren mayor importancia cuando están involucradas personas vulnerables, existen asimetrías de poder o los derechos humanos y los valores democráticos están en juego en general. Sin embargo, sorprendentemente, los reguladores hasta ahora han prestado poca atención a los riesgos específicos que surgen en el contexto de la Inteligencia Artificial en la educación (AIED). Por lo tanto, este documento tiene como objetivo evaluar los desafíos éticos planteados por AIED. Su marco normativo consiste en los siete requisitos para la IA confiable, como se establece en las Directrices éticas del Grupo de expertos de alto nivel sobre IA de la Comisión Europea. Después de una descripción general del contexto más amplio en el que estos requisitos tomaron forma (Sección 2), el documento examina cada requisito en el ámbito educativo, así como las dificultades que deben abordarse para permitir su realización (Sección 3). Se presta especial atención al papel especial de la educación en la formación de la mente de las personas y la manera en que este papel puede utilizarse tanto para empoderar como para explotar a las personas. El documento señala que las principales fortalezas de AIED – ofrecer educación a una escala más amplia, a través de métodos de aprendizaje más flexibles e individualizados, y a través de un monitoreo más cercano de la recepción de los materiales por parte de los estudiantes – son también sus principales desventajas cuando no se controlan. Por último, el documento analiza varias vías que los responsables de la formulación de políticas deben considerar para fomentar la AIED confiable más allá de la adopción de directrices (Sección 4), antes de concluir (Sección 5).

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3742421

Confianza pública y transparencia

 La innovación sostenible en la tecnología basada en datos depende de la creación y el mantenimiento de la confianza del público. Es evidente que hay un camino por recorrer para generar la confianza del público en los algoritmos, y el punto de partida obvio para esto es garantizar que los algoritmos sean confiables; en la revisión del CDEI sobre el sesgo en la toma de decisiones algorítmicas, analizamos una parte clave de esto.

En la revisión, consideramos el papel que puede desempeñar la transparencia en la construcción de un entorno confiable y garantizar la equidad. Si bien esto es cierto en todos los sectores, el sector público tiene la responsabilidad particular de dar ejemplo de cómo debería ser una buena transparencia en el uso de algoritmos. El sector público toma muchas de las decisiones de mayor impacto que afectan a las personas, y esperamos que el sector público pueda justificar y evidenciar sus decisiones. Si bien una persona tiene la opción de optar por no utilizar un servicio comercial cuyo enfoque de los datos no está de acuerdo, no tiene la misma opción con los servicios esenciales proporcionados por el estado.

https://cdei.blog.gov.uk/2020/12/01/public-trust-and-transparency/

Revisión del sesgo en la toma de decisiones algorítmicas

 Los prejuicios injustos, ya sean conscientes o inconscientes, pueden ser un problema en muchos procesos de toma de decisiones. Esta revisión considera el impacto que un uso creciente de herramientas algorítmicas está teniendo sobre el sesgo en

toma de decisiones, los pasos necesarios para gestionar los riesgos y las oportunidades que ofrece un mejor uso de los datos para mejorar la equidad. Nos hemos centrado en el uso de algoritmos en decisiones importantes sobre individuos, analizando cuatro sectores (contratación, servicios financieros, vigilancia y gobierno local) y haciendo recomendaciones transversales que tienen como objetivo ayudar a construir los sistemas adecuados para que los algoritmos mejoren, en lugar de que empeorar, la toma de decisiones.

https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/939109/CDEI_review_into_bias_in_algorithmic_decision-making.pdf

Incertidumbre, desconfianza. La incertidumbre es parte de la vida, virus desconfianza 

Vacuna triple E
Explicabilidad, ser transparente y comprensible, mostrar las posibilidades y los riesgos

Ética, hacer las cosas bien, bien común 
Ejemplaridad de los políticos 

A partir del min 19

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


¿Quién soy yo para decidir cuándo los algoritmos deben tomar decisiones importantes?

 Las personas que asumen los riesgos de los sistemas algorítmicos deberían poder determinar si se utilizan y cómo se utilizan.

Workers for Shipt, la plataforma de entrega de comestibles propiedad de Target, están protestando por la reciente implementación de la empresa de un nuevo algoritmo que dicta los horarios y salarios de los trabajadores. No está claro cómo el algoritmo toma estas decisiones: Shipt ha proporcionado pocos detalles a sus más de 200.000 empleados y la empresa se niega a compartir nada con el público, alegando que el sistema es «propietario». Pero incluso sin acceso al funcionamiento interno del algoritmo, los trabajadores sienten sus impactos. Desde que el sistema entró en funcionamiento en septiembre, afirman que sus salarios han bajado y que la programación es más complicada e impredecible, lo que arroja sus vidas a la precariedad y la incertidumbre financiera. Como dijo el trabajador de Shipt, Willy Solis: «Este es mi negocio y necesito poder tomar decisiones informadas sobre mi tiempo».

https://www.bostonglobe.com/2020/11/02/opinion/who-am-i-decide-when-algorithms-should-make-important-decisions/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


La Coalición de la Sociedad Civil liderada por AlgorithmWatch pide reglas de transparencia vinculantes para las plataformas en línea

 Como organizaciones comprometidas con la defensa de los valores democráticos y los derechos fundamentales, vemos una necesidad urgente de comprometer las plataformas de Internet con un mayor nivel de transparencia. Proponemos que la UE debe mantener los principios clave del régimen de responsabilidad limitada descrito en la Directiva de comercio electrónico e introducir marcos de transparencia vinculantes que permitan el acceso a los datos para su escrutinio respetando la privacidad. Acogemos con beneplácito la Ley de Servicios Digitales (DSA) propuesta por la Comisión Europea e instamos a los responsables políticos de la UE a utilizar este «Reglamento moderno para servicios digitales» en Europa como una oportunidad para hacer que las plataformas rindan cuentas.

https://algorithmwatch.org/en/governing-platforms-final-recommendations

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Crea tu sitio web con WordPress.com
Comenzar