La normativa de la UE sobre inteligencia artificial amenaza con socavar la red de seguridad social

https://www.computerweekly.com/news/252509326/EU-AI-regulation-risks-undermining-social-safety-net

El plan propuesto por la Unión Europea (UE) para regular el uso de la inteligencia artificial (IA) amenaza con socavar la red de seguridad social del bloque, y está mal equipado para proteger a las personas de la vigilancia y la discriminación, según un informe de Human Rights Watch.

El apoyo a la seguridad social en toda Europa es administrado cada vez más por algoritmos impulsados por la IA, que están siendo utilizados por los gobiernos para asignar beneficios que salvan vidas, proporcionar apoyo al empleo y controlar el acceso a una variedad de servicios sociales, dijo Human Rights Watch en su informe de 28 páginas, Cómo la regulación de inteligencia artificial defectuosa de la UE pone en peligro la red de seguridad social.

Basándose en estudios de casos de Irlanda, Francia, los Países Bajos, Austria, Polonia y el Reino Unido, la organización no gubernamental (ONG) descubrió que la tendencia europea a la automatización está discriminando a las personas que necesitan apoyo de la seguridad social, comprometiendo su privacidad y dificultando la obtención de asistencia gubernamental.

Añadió que, aunque la propuesta de Ley de Inteligencia Artificial (AIA) de la UE, publicada en abril de 2021, reconoce ampliamente los riesgos asociados a la IA, «no protege de manera significativa los derechos de las personas a la seguridad social y a un nivel de vida adecuado».

«En particular, sus escasas salvaguardias pasan por alto cómo las desigualdades existentes y los fallos en la protección adecuada de los derechos -como la brecha digital, los recortes en la seguridad social y la discriminación en el mercado laboral- dan forma al diseño de los sistemas automatizados y se incrustan en ellos».

Según Amos Toh, investigador principal sobre IA y derechos humanos en Human Rights Watch, la propuesta no logrará, en última instancia, acabar con la «vigilancia abusiva y la elaboración de perfiles» de las personas en situación de pobreza. «La propuesta de la UE no hace lo suficiente para proteger a las personas de los algoritmos que las despojan injustamente de las prestaciones que necesitan para mantenerse o encontrar un trabajo», dijo.

La autorregulación no es suficiente

El informe se hace eco de las reclamaciones realizadas por expertos en derechos civiles digitales, que ya habían declarado a Computer Weekly que la propuesta de regulación favorece a las organizaciones -tanto públicas como privadas- que desarrollan y despliegan tecnologías de IA, a las que se les encomienda esencialmente la tarea de marcar casillas, mientras que a los ciudadanos de a pie se les ofrece poca protección o reparación.

Por ejemplo, aunque la AIA establece normas sobre el uso de prácticas de IA «de alto riesgo» y «prohibidas», permite a los proveedores de tecnología autoevaluar si sus sistemas son compatibles con las limitadas protecciones de derechos de la normativa, en un proceso denominado «evaluaciones de conformidad».

«Una vez que aprueben sus propios sistemas (mediante la presentación de una declaración de conformidad), serán libres de ponerlos en el mercado de la UE», dijo Human Rights Watch. «Este abrazo a la autorregulación significa que habrá pocas oportunidades para que la sociedad civil, el público en general y las personas directamente afectadas por la automatización de la administración de la seguridad social participen en el diseño y la implementación de estos sistemas.»

«La automatización de los servicios de la seguridad social debería mejorar la vida de las personas, no costarles la ayuda que necesitan para pagar el alquiler, comprar alimentos y ganarse la vida. La UE debería modificar el reglamento para garantizar que está a la altura de sus obligaciones de proteger los derechos económicos y sociales»

Amos Toh, Human Rights Watch

Añadió que el reglamento tampoco ofrece ninguna vía de recurso contra las empresas tecnológicas a las personas a las que se les deniegan las prestaciones debido a errores de software: «Los organismos gubernamentales responsables del cumplimiento de la normativa en su país podrían tomar medidas correctivas contra el software o detener su funcionamiento, pero el reglamento no concede a las personas directamente afectadas el derecho a presentar un recurso ante estos organismos».

Poniendo como ejemplo el algoritmo de perfiles de empleo de Austria, que según los académicos austriacos se utiliza para apoyar las políticas de austeridad del gobierno, la ONG dijo que ayudaba a legitimar los recortes presupuestarios de la seguridad social reforzando la dañina narrativa de que las personas con malas perspectivas de empleo son perezosas o desmotivadas.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Crea tu sitio web con WordPress.com
Comenzar
A %d blogueros les gusta esto: