Proyecto de ley sobre IA: La UE debe estar a la altura de sus propias ambiciones en términos de gobernanza y aplicación

https://algorithmwatch.org/en/eu-ai-act-consultation-submission-2021/

Hoy hemos presentado nuestra respuesta a la consulta de la Comisión Europea sobre la Ley de Inteligencia Artificial (IA). La propuesta de la Comisión tiene el potencial de moldear profundamente la regulación de los sistemas basados en la IA y la toma de decisiones automatizada (ADM) en las próximas décadas, no sólo en Europa sino en todo el mundo, tanto por sus efectos jurídicos directos extraterritoriales como por sus implicaciones políticas. Apreciamos el carácter de agenda de la propuesta, que probablemente estimulará el urgentemente necesario debate sobre la gobernanza de los sistemas ADM.

Sin embargo, tememos que, en su versión actual, el proyecto de ley de IA no cumpla de forma fiable y exhaustiva sus objetivos declarados. Pedimos al Consejo y al Parlamento que tomen las medidas adecuadas para corregir sus deficiencias, aclarar sus ambigüedades y mejorar su coherencia, convirtiendo en última instancia la Ley en un medio eficaz para utilizar los sistemas de ADM en beneficio de las personas, y no en su perjuicio.

Por ello, recomendamos lo siguiente:

Definir mejor el ámbito de aplicación de la ley, que es amplio pero poroso

En lugar de regular un sistema basado en la IA en función de su pertenencia a un tipo específico de tecnología, el impacto que dicho sistema tiene en las personas y la sociedad debería ser el factor decisivo en la regulación de la Ley. El concepto de sistemas automatizados/algorítmicos de toma de decisiones captaría con mayor precisión este aspecto.

Mitigar el potencial autodestructivo del enfoque basado en el riesgo

Hay que asegurarse de que los esfuerzos de armonización de la Ley no den lugar a que los sistemas de ADM sean examinados con menos detenimiento. Los Estados miembros deben tener derecho a someter estos sistemas a requisitos adicionales para mitigar su impacto potencialmente perjudicial. Debería ser obligatorio que cada sistema desplegado por agentes públicos o privados realizara una evaluación de impacto que permitiera determinar sus respectivos niveles de riesgo caso por caso.

Asegurarse de que la evaluación de riesgos es algo más que una hoja de parra

Asegurarse de que los procedimientos de normalización se llevan a cabo de forma transparente, inclusiva y democrática, incluyendo a los expertos y a la sociedad civil, con el fin de garantizar que realmente contribuyen a la protección de los valores en los que se basa la Ley. Asegurarse de que existe una evaluación de la conformidad completa que no sea nula, que no pueda eludirse, que tenga lugar dentro de una estructura de gobernanza inequívoca y que incluya adecuadamente la supervisión de terceros.

Aprovechar el potencial de la base de datos de la UE como paso hacia una mayor transparencia

La base de datos no sólo debería incluir los sistemas de alto riesgo, sino que -en lo que respecta al sector público- debería complementarse con una lista de todos los sistemas ADM utilizados por las autoridades públicas, independientemente del nivel de riesgo asignado. Complementar la información requerida en el Anexo VIII con la finalidad del sistema, una explicación del modelo (lógica implicada) y detalles sobre los actores involucrados en el desarrollo y despliegue del sistema, así como los resultados de cualquier evaluación de impacto algorítmico.

Aclarar los mecanismos de aplicación y dotar a los organismos de los medios necesarios

Aclare las funciones de las entidades que participan en la aplicación de la ley. Estas entidades deben ser suficientemente independientes, contar con los recursos adecuados y tener la experiencia pertinente -tanto en tecnología como en derechos fundamentales- para cumplir con las tareas que se les asignen.

Centrar los marcos de responsabilidad en los afectados

Introducir marcos de acceso a los datos jurídicamente vinculantes, centrados explícitamente en apoyar y permitir la investigación de interés público, que respeten plenamente la legislación sobre protección de datos y privacidad. Garantizar recursos legales fácilmente accesibles, asequibles y eficaces para que los individuos y grupos afectados puedan impugnar las decisiones automatizadas.

Trazar efectivamente una línea roja sobre la vigilancia masiva biométrica

Prohibir completamente todos los usos de los sistemas de reconocimiento biométrico en el espacio público que puedan dar lugar a una vigilancia masiva y que, por tanto, entren en conflicto con los derechos fundamentales.

Garantizar la participación y aumentar la capacidad de proteger la autonomía de los trabajadores

Garantizar a los trabajadores el derecho a obtener información sobre la finalidad de los sistemas contemplados en esta Ley, y sobre cómo se pretende conseguir la finalidad del sistema. La Ley debe incluir requisitos de proceso para las opciones de participación y codeterminación para garantizar que los trabajadores no se conviertan en meros objetos de un «gobierno por algoritmos».

*** Translated with http://www.DeepL.com/Translator (free version) ***

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Crea tu sitio web con WordPress.com
Comenzar
A %d blogueros les gusta esto: