Responsabilidad algorítmica para el sector público

 The full report is available here, and the executive summary here. El Instituto Ada Lovelace (Ada), el Instituto AI Now (AI Now) y laOpen Government Partnership (OGP) se han asociado para lanzarel primer estudio mundial que analiza la ola inicial de políticas dealgorítmica para el sector público.Este estudio tiene como objetivo comprender los desafíos y los éxitos dede las políticas de rendición de cuentas algorítmica desde la perspectiva de losde los actores e instituciones directamente responsables de su aplicaciónsobre el terreno. Este resumen ejecutivo destaca las principales conclusionesde este estudio. Lea el informe completo para obtener más detalles sobre estasconclusiones y estudios de casos prácticos de políticas aplicadas.Instituto Ada Lovelace, Instituto AI Now y Open GovernmentPartnership. (2021). Algorithmic Accountability for the Public Sector.Disponible en: https://www.opengovpartnership.org/documents/algorithmic-accountability-public-sector/

Por qué las aplicaciones de IA se estancan en el sector público

https://n3gz.org/2021/03/12/why-ai-applications-get-stalled-in-the-public-sector/

Hace más de un año, el autor participó en un hackathon para IA aplicada en la administración pública con un equipo multifuncional de programadores y analistas de negocios. El equipo creó una prueba de concepto (POC) para una aplicación de procesamiento del lenguaje natural (NLP) que estimaba qué partes de un documento contenían qué tipos de información. El concepto era brillante, pero nunca se encargó, ya que las estructuras de costos específicas del sector público negaban un caso comercial para el POC, a pesar de un caso de uso convincente.

En general, para comprender por qué las aplicaciones de IA en la administración pública a menudo se enfrentan a una muerte prematura, se debe pasar de la perspectiva de un proveedor de tecnología a la de un administrador público.

Vista del proveedor de tecnología: el caso de uso

El statu quo: siempre que los municipios belgas eligen nuevos alcaldes y concejales, los resultados de las elecciones se registran en documentos electrónicos. Los gobiernos municipales envían estos documentos a las administraciones regionales, que los agregan y publican. Estos datos se almacenan en el formato designado (es decir, estándares abiertos para organizaciones vinculadas – OSLO) en la base de datos regional. Esta base de datos se puede consultar: ¿La misma persona ganó cargos electorales en varios municipios? ¿Qué otros patrones se pueden observar?

Como proveedor de tecnología, vimos un caso de uso claro para que la IA facilitara la publicación de los resultados de las elecciones en Bélgica. A primera vista, prometía una mejora significativa del flujo de trabajo con relativamente poco esfuerzo. Actualmente, los administradores públicos del gobierno regional copian y pegan manualmente el nombre de los alcaldes y concejales electos de cada documento municipal, un proceso realmente engorroso. Hay 581 municipios en Bélgica y tres regiones. En consecuencia, leer todos esos informes se suma a la carga de trabajo de unas pocas semanas de uno o incluso varios empleados a tiempo completo. Una aplicación de IA podría acelerar este proceso extrayendo los nombres por tipo de información, p. «Jan Jansen» y etiquetarlos con el tipo de información correcto, p. Ej. «Alcalde». La aplicación de inteligencia artificial acelera la entrada de datos, un claro beneficio.

La eficiencia está en el ojo del espectador

¿Tiene sentido automatizar la extracción de nombres de las notas de la asamblea municipal? Para el departamento de la administración regional que agrega los resultados de las elecciones, la automatización de la tarea ahorra muchos meses-persona. Automatizarlo significa un trabajo menos tedioso para los empleados del gobierno regional y liberar recursos para asuntos más urgentes. Por tanto, desde la perspectiva de la autoridad gubernamental regional responsable, el caso de negocio parece convincente.

Sin embargo, desde la perspectiva de la región en general, el caso de negocios es mucho más nublado. Mirando más allá del punto de vista de una sola autoridad o departamento, la entrada de datos impulsada por IA parece ineficiente. Tanto la solución existente como la solución de IA propuesta son operativamente subóptimas.

En esta situación, se pueden lograr las mayores ganancias de eficiencia modificando los procedimientos administrativos, de modo que los empleados municipales puedan ingresar los resultados de las elecciones directamente en una única interfaz digital. Esto reduciría el número de interfaces, errores de transmisión y produciría el mismo resultado con un proceso tecnológicamente menos exigente.

Sin embargo, aquí entran en juego los costos del cambio. El gobierno regional tendría que aprobar una nueva ley, coordinarse con otras regiones para obtener regulaciones similares y convencer a los gobiernos municipales del nuevo enfoque. Por lo tanto, el gobierno regional tendría que entrar en el territorio propenso a conflictos de la gobernanza interinstitucional, interregional y multinivel, el tiempo de gasto y el capital político.

Muchas formas de despellejar un gato: los costos de la innovación del sector público

Entonces, ¿qué alternativas hay para los gestores públicos en el gobierno regional? Sus opciones son:

(A) No haga nada y conserve el proceso de copiar y pegar;

(B) Use IA para extraer los nombres de los documentos escritos a mano para poblar una base de datos regional;

(C) Reformar los procesos administrativos y pedir a los gobiernos municipales que ingresen los resultados de las elecciones en un formulario en línea para completar una base de datos regional.

La sección anterior mostró que la opción C ofrece las mayores ganancias de eficiencia. Por lo tanto, concluimos que la opción C logra la mayor reducción de costos (ahorros) mientras que la opción A logra la menor reducción de costos. Esto significa que no hacer nada (opción A) incurre en los costos de oportunidad más altos, es decir, ahorros potenciales que no se realizan.

Segunda Asamblea de la Alianza Europea de IA

 Esta reunión trató sobre:

  • el Ecosistema de confianza
  • COVID-19
  • Sector público
  • Identificación Biométrica
  • IA y Responsabilidad
  • Evaluación de conformidad

https://futurium.ec.europa.eu/en/european-ai-alliance/document/2nd-european-ai-alliance-assembly-event-report

Confianza pública y transparencia

 La innovación sostenible en la tecnología basada en datos depende de la creación y el mantenimiento de la confianza del público. Es evidente que hay un camino por recorrer para generar la confianza del público en los algoritmos, y el punto de partida obvio para esto es garantizar que los algoritmos sean confiables; en la revisión del CDEI sobre el sesgo en la toma de decisiones algorítmicas, analizamos una parte clave de esto.

En la revisión, consideramos el papel que puede desempeñar la transparencia en la construcción de un entorno confiable y garantizar la equidad. Si bien esto es cierto en todos los sectores, el sector público tiene la responsabilidad particular de dar ejemplo de cómo debería ser una buena transparencia en el uso de algoritmos. El sector público toma muchas de las decisiones de mayor impacto que afectan a las personas, y esperamos que el sector público pueda justificar y evidenciar sus decisiones. Si bien una persona tiene la opción de optar por no utilizar un servicio comercial cuyo enfoque de los datos no está de acuerdo, no tiene la misma opción con los servicios esenciales proporcionados por el estado.

https://cdei.blog.gov.uk/2020/12/01/public-trust-and-transparency/

Algoritmos: se insta al sector público a ser abierto sobre el papel en la toma de decisiones

 Los organismos del sector público deben ser más abiertos sobre el uso de algoritmos en la toma de decisiones, se les ha dicho a los ministros.

Un organismo asesor del gobierno dijo que se necesitaba una mayor transparencia y responsabilidad en todos los ámbitos de la vida sobre el uso de modelos informáticos en las políticas.

Los funcionarios deben comprender los límites y los riesgos de sesgo de los algoritmos, dijo el Centro de Ética e Innovación de Datos.

Boris Johnson culpó a un algoritmo «mutante» del caos sobre las calificaciones escolares en Inglaterra este verano.

Ofqual y otros reguladores de exámenes en todo el Reino Unido se vieron obligados a dar marcha atrás tras una protesta pública por el uso de un programa informático para determinar las calificaciones de nivel A y GCSE después de la cancelación de los exámenes.

https://www.bbc.com/news/uk-politics-55105741

Evolución de las adquisiciones para sistemas de inteligencia artificial en ciudades y más allá

 Dado que la tecnología de los sistemas de inteligencia artificial (AIS) se obtiene cada vez más de empresas privadas para uso público, los estándares de adquisiciones existentes pueden no ser suficientes para identificar de manera proactiva daños o mitigar los riesgos para los ciudadanos o usuarios debido a limitaciones de tiempo o presupuesto. Desafortunadamente, hasta la fecha existe poca investigación e intercambio interdisciplinario sobre temas relacionados con AIS, contratación pública, riesgo, transparencia e impacto.

Para desarrollar intervenciones y estrategias significativas, es esencial generar primero una comprensión estructurada de los procesos de contratación pública existentes para identificar cómo pueden cruzarse y apoyar mejor las necesidades de la comunidad. Las ciudades son sitios particularmente importantes, ya que se han convertido en un grupo de clientes AIS de importancia única.

Como una forma de abordar esta necesidad, IEEE Standards Association (IEEE SA) está colaborando en un proyecto dirigido por la Dra. Mona Sloane de la Universidad de Nueva York y el Dr. Rumman Chowdhury, CEO y Fundador de Parity centrado en la evolución de las prácticas en torno a las adquisiciones en AIS. Comenzando con las necesidades clave de AIS de las ciudades, el proyecto contará con tres mesas redondas con un libro blanco público que se publicará a fines de la primavera de 2021.

https://beyondstandards.ieee.org/artificial-intelligence/evolving-procurement-for-artificial-intelligence-systems-in-cities-and-beyond/

Los riesgos de utilizar la inteligencia artificial para el trabajo gubernamental

Las promesas y los imperativos de las mejoras tecnológicas a los sistemas públicos parecen evidentes: los sistemas mejor diseñados pueden mejorar el acceso, reducir las ineficiencias y, en la pandemia actual, mantenernos más saludables y seguros.

Sin embargo, ver los sistemas algorítmicos como una solución fácil para problemas institucionalizados arraigados empeorará estos problemas. Para lograr todo el potencial de las nuevas tecnologías, primero debemos desarrollar e instituir la supervisión adecuada en nuestros procesos de contratación pública.

Los sistemas de IA, en particular, plantean nuevos riesgos para la sociedad a medida que invaden el uso público. Nuestros procesos democráticos corren el riesgo de ser subvertidos a medida que las empresas privadas se apoderan cada vez más de nuestra infraestructura pública digital, lo que podría conducir a una captura política sin precedentes bajo el disfraz de “modernizar” los servicios públicos. Necesitamos con urgencia niveles adecuados de supervisión y revisión y el empoderamiento de los funcionarios electos, los responsables políticos y los ciudadanos.

https://www.brinknews.com/the-risks-of-using-ai-for-government-work/?

LA INTELIGENCIA ARTIFICIAL Y SU USO EN EL SECTOR PÚBLICO

 En un momento de creciente complejidad, incertidumbre y demandas cambiantes, los gobiernos y los funcionarios públicos necesitan comprender, evaluar e incorporar nuevas formas de hacer las cosas. El OPSI les ayuda arrojando luz sobre los esfuerzos de los gobiernos por crear políticas y servicios más eficientes y adecuados y acompañándolos al momento de explorar e implementar enfoques innovadores. El gobierno puede utilizar la IA para innovar, de hecho, en muchos casos ya lo está haciendo. Por ejemplo, varios líderes a nivel mundial ya cuentan con estrategias para desarrollar la capacidad de la IA como prioridad nacional. La IA se puede utilizar para que los procesos actuales sean más eficientes y precisos. Se puede utilizar para consumir y analizar información no estructurada, como los tweets, para ayudar a los gobiernos a conocer las opiniones de los ciudadanos. Por último, al mirar hacia el futuro, será importante considerar y prepararse para las implicaciones de la IA en la sociedad, el trabajo y el propósito humano.

https://oecd-opsi.org/wp-content/uploads/2020/11/OPSI-AI-Primer-Spanish.pdf

Revisión del sesgo en la toma de decisiones algorítmicas

 Los prejuicios injustos, ya sean conscientes o inconscientes, pueden ser un problema en muchos procesos de toma de decisiones. Esta revisión considera el impacto que un uso creciente de herramientas algorítmicas está teniendo sobre el sesgo en

toma de decisiones, los pasos necesarios para gestionar los riesgos y las oportunidades que ofrece un mejor uso de los datos para mejorar la equidad. Nos hemos centrado en el uso de algoritmos en decisiones importantes sobre individuos, analizando cuatro sectores (contratación, servicios financieros, vigilancia y gobierno local) y haciendo recomendaciones transversales que tienen como objetivo ayudar a construir los sistemas adecuados para que los algoritmos mejoren, en lugar de que empeorar, la toma de decisiones.

https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/939109/CDEI_review_into_bias_in_algorithmic_decision-making.pdf

Usar la inteligencia artificial para tomar decisiones: abordar el problema del sesgo algorítmico

La IA es cada vez más utilizada por el gobierno y empresas para tomar decisiones que afectar los derechos de las personas, incluso en el provisión de bienes y servicios, así como otra importante toma de decisiones como contratación, seguridad social y vigilancia. Donde surge el sesgo algorítmico en estos procesos de toma de decisiones, puede dar lugar a errores. Especialmente en la toma de decisiones de alto riesgo, los errores pueden causar un daño real. El daño puede ser  particularmente grave si una persona es injustamente desfavorecidos sobre la base de su raza, edad, sexo u otro caracteristicas. En algunas circunstancias, esto puede equivaler a ilegal discriminación y otras formas de violación de los derechos humanos.

https://humanrights.gov.au/sites/default/files/document/publication/ahrc_technical_paper_algorithmic_bias_2020.pdf

Crea tu sitio web con WordPress.com
Comenzar