La respuesta oficial de CLAIRE a los dos documentosque forman el núcleo de la estrategia europea de IA

Resumen de preocupaciones y recomendaciones

Preocupación 1: El reglamento propuesto «propone una única definición de IA a prueba de futuro» (sección 1.1);

Sin embargo, esta definición es profundamente defectuosa.

Preocupación 2: La incertidumbre resultante de las definiciones problemáticas puede tener consecuencias perjudiciales

consecuencias perjudiciales para el desarrollo, la adopción y el uso de la IA por parte de las empresas europeas, especialmente las PYME y las nuevas empresas.

y las nuevas empresas.

Preocupación 3: La noción de calidad de los datos (y de los conjuntos de datos) sigue siendo poco clara. El reglamento propuesto plantea

El reglamento propuesto propone requisitos generales para la calidad de los datos, pero no establece criterios adecuados para evaluar la calidad de los datos.

la calidad de los datos. Sin esos criterios, los requisitos de calidad de los datos siguen siendo ineficaces.

Preocupación 4: No se presta atención al comportamiento adecuado de los sistemas de IA. La responsabilidad

y la responsabilidad de garantizar un comportamiento

El ordenador dice no: cómo las leyes de la UE sobre IA provocan nuevas injusticias

https://euobserver.com/investigations/152695

Cuando Roger Derikx solicitó las prestaciones por cuidado de hijos, pensó que recibiría dinero, no que lo perdería.

Derikx, de 46 años, tuvo que devolver al gobierno holandés 68.000 euros. El problema: nunca le dijeron por qué tenía que devolver las prestaciones, a las que tenía derecho. Las autoridades le embargaron el coche y le recortaron el 40% de su sueldo durante años.

«Tienes dos hijos pequeños y quieres dárselo todo», dijo Derikx, «pero cada vez que te piden algo, tienes que decir ‘no’; es duro».

Derikx fue uno de los 26.000 padres acusados de presentar solicitudes fraudulentas de prestaciones por la autoridad fiscal holandesa, que utilizó un algoritmo para detectar el fraude. El sistema era «ilegal y discriminatorio», según una investigación oficial, que acabó llevando al primer ministro holandés, Mark Rutte, a dimitir a principios de este año.

Para Derikx, la investigación llegó demasiado tarde. Las dificultades económicas afectaron tanto a su matrimonio que acabó divorciándose. «Es un precio muy alto», dijo Derikx.

La UE propone una normativa sobre IA

El escándalo de las prestaciones por hijos en Holanda no es único. Las denuncias de abusos han surgido en toda Europa.

Las autoridades danesas también utilizaron la inteligencia artificial para identificar a los niños de las «familias vulnerables» que se dirigían de forma desproporcionada a los padres de origen extranjero.

Y los Países Bajos, uno de los pioneros europeos en este campo, utilizaron algoritmos para crear perfiles de riesgo de niños menores de 12 años.

Los críticos llevan tiempo abogando contra estos usos de la IA. En enero, 61 organizaciones de defensa de los derechos enviaron una carta abierta a la UE en la que exigían «líneas rojas» para las aplicaciones de IA que amenazaran los derechos fundamentales.

Por su parte, los representantes de la industria argumentaron que regular la IA ahogaría la innovación.

Al tomar posesión de su cargo, la presidenta de la Comisión Europea, Ursula von der Leyen, hizo de la regulación de la inteligencia artificial una prioridad política, y la UE afirmó que buscaba un compromiso entre abordar los riesgos y proteger la innovación.

En abril de 2021, la Comisión de la UE anunció una propuesta largamente esperada para regular la inteligencia artificial.

Ascenso de las empresas

Los datos recopilados para esta investigación muestran que los funcionarios de la comisión registraron 152 reuniones oficiales de lobby sobre la IA durante el período de tiempo comprendido entre diciembre de 2019 y agosto de 2021.

Las corporaciones y las asociaciones empresariales representaron más de 100, o dos tercios, de esas reuniones; menos de un tercio fue con la sociedad civil, los académicos y los sindicatos.

La mayoría de las organizaciones sólo pudieron reunirse con la UE una vez. Google encabezó la lista con nueve reuniones, la primera de las cuales se produjo apenas tres días después de la toma de posesión de la Comisión.

*** Translated with http://www.DeepL.com/Translator (free version) ***

La IA descontrolada puede poner en peligro la vida de las personas. Debemos aplicar garantías más estrictas

https://time.com/6084163/ai-safeguards/

La inteligencia artificial es ahora una de las industrias más concentradas del mundo. Dominada por un puñado de gigantes tecnológicos y desplegada a escala planetaria, la IA ya influye en instituciones sociales de alto riesgo en la educación, la justicia penal, la contratación y el bienestar. La IA está remodelando e interviniendo en el mundo, ampliando la desigualdad de la riqueza y las asimetrías de poder. Pero hasta ahora el sector ha escapado principalmente a la regulación, a pesar de afectar a la vida de miles de millones de personas, incluso cuando sus productos no están probados o son potencialmente dañinos.

La pandemia del COVID-19 ha acelerado esta situación. Muchas empresas de IA proponen ahora herramientas de reconocimiento de emociones (ERT) para controlar a los trabajadores a distancia e incluso a los escolares. Estos sistemas mapean las «microexpresiones» de los rostros de las personas a partir de sus cámaras de vídeo. A continuación, predicen estados emocionales internos extraídos de una breve lista de categorías supuestamente universales: felicidad, tristeza, ira, asco, sorpresa y miedo.

Se prevé que esta industria tenga un valor de 56.000 millones de dólares en 2024 y, sin embargo, hay considerables dudas científicas de que estos sistemas detecten con precisión los estados emocionales en absoluto. Una revisión histórica de 2019 de la investigación disponible no encontró ninguna correlación fiable entre la expresión facial y la emoción genuina. «No es posible inferir con confianza la felicidad de una sonrisa, la ira de un ceño fruncido o la tristeza de un ceño fruncido», declaró la revisión. Aun así, las empresas de IA se han basado en esta teoría de la «emoción universal» como medio para realizar análisis humanos a escala. Las ERT se utilizan ahora en las entrevistas de trabajo, en las aulas, en la seguridad de los aeropuertos y en las fuerzas del orden.

Respuesta de CLAIRE a la Ley de IA

Resumen de las preocupaciones y recomendaciones

Preocupación 1: El reglamento propuesto «propone una única definición de IA a prueba de futuro» (sección 1.1);

Sin embargo, esta definición es profundamente defectuosa.

Preocupación 2: La incertidumbre resultante de las definiciones problemáticas puede tener consecuencias perjudiciales

consecuencias perjudiciales para el desarrollo, la adopción y el uso de la IA por parte de las empresas europeas, especialmente las PYME y las nuevas empresas.

y las nuevas empresas.

Preocupación 3: La noción de calidad de los datos (y de los conjuntos de datos) sigue siendo poco clara. El reglamento propuesto plantea

El reglamento propuesto propone requisitos generales para la calidad de los datos, pero no establece criterios adecuados para evaluar la calidad de los datos.

la calidad de los datos. Sin esos criterios, los requisitos de calidad de los datos siguen siendo ineficaces.

Preocupación 4: No se presta atención al comportamiento adecuado de los sistemas de IA. La responsabilidad

y la rendición de cuentas para garantizar un comportamiento adecuado, incluido el uso de datos de entrada adecuados en el diseño, la experimentación, las pruebas y el funcionamiento.

diseño, la experimentación, las pruebas y el funcionamiento- no están claramente definidos.

Preocupación 5: El reglamento propuesto es vago en cuanto a los derechos de los ciudadanos y tiene importantes excepciones que

afectan negativamente a estos derechos.

Preocupación 6: El reglamento propuesto erosionará la competitividad europea en el ámbito de la IA.

Preocupación 7: Aunque la normativa europea consiga establecer normas mundiales, la mayor parte del desarrollo y la

desarrollo y la investigación pueden acabar teniendo lugar -o ser dirigidos desde- otro lugar, y generar beneficios (especialmente

beneficios económicos) sobre todo fuera de Europa. Esto erosionará la soberanía europea en el ámbito de la tecnología de la IA.

de la IA.

Preocupación 8: La financiación de la investigación e innovación en IA a través de Horizonte Europa y el Programa Europa Digital

es insuficiente y se distribuye de forma que deja fuera a partes importantes de la comunidad de la IA. En

Por lo tanto, no moviliza ni aprovecha la experiencia europea clave en IA y corre el riesgo de aumentar la fragmentación del ecosistema europeo de IA.

fragmentación del ecosistema europeo de la IA.

Preocupación 9: A falta de mecanismos e incentivos eficaces, la cooperación necesaria para

éxito a nivel europeo (y no sólo a nivel de los Estados miembros) no se logrará.

Preocupación 10: Europa está perdiendo la competencia por el talento de la IA con Estados Unidos y China. Europa necesita

Europa necesita detener la fuga de cerebros de la IA a todos los niveles, introduciendo rápidamente condiciones competitivas para atraer y retener el talento de la IA.

y retener el talento de la IA.

Preocupación 11: Una versión distribuida del faro europeo para la IA será ineficaz e

ineficaz e intrascendente, y el hecho de que los planes actuales sean vagos y confusos en cuanto al concepto

ya ha empezado a erosionar lo que podría ser un gran éxito para la IA europea, un poderoso símbolo y

un poderoso símbolo y nexo de unión para la ambición de la «IA hecha en Europa», y un atractivo mundial de talento.

Preocupación 12: Las acciones previstas en el plan son dispersas. Ninguna de ellas parece que vaya a

de la investigación o la innovación en materia de inteligencia artificial en el contexto mundial o que conduzcan a

capacidades de IA que cambien el juego. Existe un grave riesgo de que aumente la fragmentación y, en consecuencia

de un menor impacto global del ecosistema europeo de IA bajo este plan.

Respuesta de CLAIRE a la propuesta de la Comisión Europea para la regulación de la IA y el Plan Coordinado 2021 sobre IA 3

Recomendación 1: Cualquier definición de IA utilizada por la Comisión Europea debe ser aceptada por una

amplia mayoría de la comunidad internacional de la IA.

Recomendación 2: En lugar de basarse en una definición de las tecnologías de IA, las restricciones reglamentarias deberían

reglamentarias deberían basarse en las clases de casos de uso que permite la IA y en las características funcionales de los sistemas utilizados en estos casos.

sistemas utilizados en estos casos. En la mayor medida posible, la regulación de la IA debería ser tecnológicamente neutra.

Recomendación 3: El reglamento propuesto debe alinearse con los reglamentos existentes, especialmente con

el RGPD, en cuanto a los requisitos para el uso de datos de alta calidad.

Recomendación 4: El reglamento propuesto y el plan coordinado deberían centrarse en garantizar el

comportamiento adecuado de los sistemas de IA en aplicaciones de alto riesgo y, por lo tanto, adoptar la noción de IA de confianza.

DE CONFIANZA.

Recomendación 5: Asegurarse de que, a priori, los usos gubernamentales de las tecnologías de IA estén sujetos a las mismas

restricciones que todos los demás usos, y permitir sólo exenciones mínimas con una supervisión adecuada.

Recomendación 6: Centrarse en la inversión que pueda compensar la carga creada por cualquier regulación de la IA.

Mejorar el reglamento propuesto aclarando las definiciones y eliminando las incertidumbres. Hacer que la certificación

fácil y rentable.

Recomendación 7: Para lograr un impacto global, la inversión en el ecosistema europeo de investigación e innovación en IA debe ser mucho más importante.

de investigación e innovación de la IA debe ser mucho más importante, y debe realizarse de forma que se aprovechen

de manera que se aprovechen partes más amplias del ecosistema europeo de investigación en IA, y no puede dirigirse únicamente a un conjunto de redes de investigación débilmente coordinadas.

redes de investigación poco coordinadas.

Recomendación 8: Crear mecanismos adecuados de coordinación a nivel de la UE. Esto incluye

la coordinación de las redes de centros de excelencia en IA, de los EDIH, de al menos una parte considerable del FRR

del gasto en IA y de otros componentes clave del plan. El plan coordinado de IA debe estar más

más coordinado.

Recomendación 9

*** Translated with http://www.DeepL.com/Translator (free version) ***

La presentación de Access Now a la consulta de la Comisión Europea sobre la adopción de la Ley de Inteligencia Artificial

Access Now acoge con satisfacción la propuesta pionera de la Comisión Europea de un marco regulador para la

inteligencia artificial. Hemos señalado sistemáticamente la insuficiencia de las directrices éticas y

y los enfoques autorreguladores, y hace tiempo que pedimos una intervención reguladora en el ámbito de la IA. La

propuesta actual ofrece un marco viable para garantizar la protección de los derechos fundamentales, pero

pero requiere modificaciones significativas en una serie de áreas o corre el riesgo de no alcanzar el objetivo de

proteger los derechos fundamentales.

En términos generales, el principal objetivo de la propuesta es regular los llamados sistemas de IA de alto riesgo, es decir

aquellos que suponen un riesgo de daño para la salud y la seguridad o un riesgo de impacto adverso sobre los derechos fundamentales.

El Título III de la Propuesta «contiene normas específicas para los sistemas de IA que crean un alto riesgo para la salud y

seguridad o los derechos fundamentales de las personas físicas», y en el anexo III figura una lista de sistemas de IA de alto riesgo.

III. La propuesta también contiene disposiciones para prohibir determinadas prácticas de IA en el artículo 5, que, según la

La propuesta también contiene disposiciones para prohibir determinadas prácticas de IA en el artículo 5, que, según la exposición de motivos, «comprende todos los sistemas de IA cuyo uso se considera inaceptable por contravenir los valores de la Unión».

por contravenir los valores de la Unión». Además, la Propuesta contiene disposiciones de transparencia

1

obligaciones para ciertos sistemas de IA como los chatbots y los sistemas de reconocimiento de emociones. Como argumentaremos

como argumentaremos más adelante, una serie de deficiencias de la Propuesta impiden que alcance adecuadamente el objetivo de

proteger los derechos fundamentales.

Como explicamos a continuación, las definiciones de reconocimiento de emociones y categorización biométrica contienen

ciertos defectos técnicos que deben ser abordados. Sin definir correctamente estas aplicaciones de la IA

no podemos esperar abordarlas adecuadamente en la regulación. Por lo tanto, la sección II propone definiciones alternativas

alternativas para ambos términos, así como un análisis de los graves riesgos que suponen para los derechos fundamentales.

derechos fundamentales. Una vez definidos correctamente estos dos términos, argumentamos en la Sección III que ambos deben ser

prohibidos.

La Sección III comienza con un análisis de las cuatro prohibiciones existentes en el artículo 5 de la Propuesta. En

señalamos los fallos en la formulación de las prohibiciones del artículo 5, apartados 1(a), 1(b) y 1(c), y

proponemos formulaciones alternativas. A continuación, proporcionamos justificaciones y propuestas de formulación para una serie de prohibiciones adicionales.

de una serie de prohibiciones adicionales. Por último, argumentamos que el artículo 5 debe completarse con una lista de

criterios para definir el «riesgo inaceptable», de modo que otras aplicaciones de la IA puedan añadirse a la lista de

prácticas prohibidas si surgen pruebas de que plantean riesgos inaceptables, y que debe añadirse un mecanismo

debe añadirse al artículo 7 para permitir que se añadan otras prácticas al artículo 5.

En la sección IV abordamos la relativa falta de obligaciones impuestas a los «usuarios» de los sistemas de IA en comparación con las impuestas a los «proveedores».

de las que se imponen a los «proveedores». Sugerimos que se impongan obligaciones adicionales a los usuarios, como por ejemplo

exigir que se lleve a cabo algún tipo de evaluación de impacto para todos los sistemas de IA de alto riesgo. En la sección V, analizamos la necesidad de ampliar el alcance de la base de datos de sistemas de IA de alto riesgo que se puede consultar públicamente

propuesta en el artículo 60.

La sección VI plantea una serie de preocupaciones sobre la propuesta actual de los «cajones de arena» reguladores de la IA en los artículos 53 y 54, y formula recomendaciones.

artículos 53 y 54, y hace recomendaciones para una serie de modificaciones, incluyendo que los casos de uso

los casos de uso del apartado (i), es decir, los relacionados con las aplicaciones policiales de la IA, se eliminen

del artículo 54. La sección VIII aborda una serie de lagunas en los mecanismos de aplicación y reparación

y, por último, en la sección VIII señalamos una serie de preocupaciones adicionales que deben ser abordadas en la propuesta.

que deben abordarse en la propuesta.

Aunque la propuesta actual proporciona un marco viable para regular las aplicaciones perjudiciales de la IA, requiere

requiere serias modificaciones en una serie de áreas. Esperamos trabajar con los

Esperamos trabajar con los colegisladores en los próximos meses para garantizar que se aborden estas cuestiones.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Cómo puede la UE conseguir una IA legalmente fiable: una respuesta a la propuesta de la Comisión Europea de una Ley de Inteligencia Artificial

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3899991

Este documento contiene la respuesta a la Propuesta de Ley de Inteligencia Artificial de la Comisión Europea de los miembros del Laboratorio de la Sociedad Digital Legal, Ética y Responsable (LEADS) de la Universidad de Birmingham. La propuesta pretende dar expresión al concepto de «IA legal». Este concepto se mencionó, pero no se desarrolló, en las Directrices Éticas para una Inteligencia Artificial Confiable (2019) del Grupo de Expertos de Alto Nivel en Inteligencia Artificial de la Comisión, que en cambio limitó su discusión a los conceptos de Inteligencia Artificial «Ética» y «Robusta». Tras una breve introducción (capítulo 1), exponemos los numerosos aspectos de la Propuesta que acogemos con satisfacción y destacamos nuestro apoyo incondicional a su objetivo de proteger los derechos fundamentales (capítulo 2). A continuación, desarrollamos el concepto de «IA jurídicamente fiable», argumentando que debe basarse en el respeto a los tres pilares en los que se basan las sociedades democráticas liberales contemporáneas, a saber: los derechos fundamentales, el Estado de Derecho y la democracia (capítulo 3). Basándonos en este marco conceptual, argumentamos en primer lugar que la Propuesta no refleja los derechos fundamentales como reivindicaciones con un mayor estatus moral y legal, lo que somete cualquier intervención en materia de derechos a un exigente régimen de escrutinio y debe satisfacer las pruebas de necesidad y proporcionalidad. Además, la propuesta no siempre reconoce con precisión los daños y perjuicios asociados a los distintos tipos de sistemas de IA ni asigna adecuadamente la responsabilidad por ellos. En segundo lugar, la Propuesta no proporciona un marco eficaz para la aplicación de los derechos y deberes legales, y no garantiza la seguridad jurídica y la coherencia, que son esenciales para el Estado de Derecho. En tercer lugar, la Propuesta no garantiza la transparencia significativa, la responsabilidad y los derechos de participación pública, por lo que no refleja una protección adecuada de la democracia (capítulo 4). Sobre la base de estas deficiencias en el respeto y la promoción de los tres pilares de la IA jurídicamente fiable, ofrecemos recomendaciones detalladas para la revisión de la Propuesta (capítulo 5).

*** Translated with http://www.DeepL.com/Translator (free version) ***

¿Un marco de confianza que respete los derechos fundamentales? El proyecto de ley de IA de la UE y el uso policial de la biometría

https://infolawcentre.blogs.sas.ac.uk/2021/08/04/a-trustworthy-framework-that-respects-fundamental-rights-the-draft-eu-ai-act-and-police-use-of-biometrics/

Como se indica en su Libro Blanco de 2020, la propuesta de Reglamento sobre la IA de la Comisión Europea, también denominada «Ley de la IA», forma parte de un conjunto más amplio de medidas reguladoras destinadas a permitir «un desarrollo fiable y seguro de la IA en Europa», en plena consonancia con los derechos de los ciudadanos de la UE. Es de agradecer que el legislador de la UE dé estos primeros pasos hacia este oportuno objetivo, dado el papel cada vez más importante que desempeñan los sistemas de IA en todos los aspectos de la vida cotidiana, además de permitir avances médicos y proteger la seguridad pública en una pandemia mundial.

El proyecto de Ley de IA también coincide con un consenso internacional que está surgiendo claramente entre los investigadores, los responsables políticos, los tribunales, los reguladores y la industria de que estos potentes sistemas algorítmicos también plantean graves riesgos para varios derechos protegidos por la Carta de Derechos Fundamentales de la UE. Esto incluye, pero no se limita a, el creciente uso del reconocimiento facial en tiempo real, y la biometría en general, en toda Europa, que interfiere con los derechos a la vida privada, la libertad de expresión y la igualdad, protegidos por la Carta de la UE. El siguiente análisis aborda específicamente si las actuales disposiciones de la Ley de IA destinadas a regular los futuros usos de los sistemas de identidad biométrica por parte de las fuerzas de seguridad pueden considerarse fiables y plenamente respetuosas con los derechos fundamentales de la UE.

Principales disposiciones

Sistemas de IA de alto riesgo: Sistemas de identificación biométrica a distancia «en tiempo real» y «a posteriori

El artículo 3, apartado 33, define los «datos biométricos» en plena consonancia con las mismas disposiciones del RGPD de la UE y de la Directiva de aplicación de la ley de la UE. Obsérvese que el ámbito de aplicación no es exhaustivo y va más allá de la identificación de imágenes faciales y dactilares, abarcando así el análisis de la voz, el análisis de la marcha, el análisis del iris y otros datos biométricos nuevos y emergentes:

los datos personales resultantes de un tratamiento técnico específico relativo a las características físicas, fisiológicas o de comportamiento de una persona física, que permitan o confirmen la identificación única de dicha persona física, como las imágenes faciales o los datos dactiloscópicos.

El artículo 3 (36) define un «sistema de identificación biométrica a distancia» como un

Sistema de IA con el fin de identificar a distancia a personas físicas mediante la comparación de los datos biométricos de una persona con los datos biométricos contenidos en una base de datos de referencia, y sin que el usuario del sistema de IA sepa previamente si la persona estará presente y podrá ser identificada.

La propuesta de Reglamento aborda dos categorías de sistemas de identificación biométrica a distancia que pueden utilizarse para la identificación de personas: «en tiempo real» y «a posteriori».

El artículo 3(37) define la categoría de estos sistemas «en tiempo real» como

sistema de identificación biométrica a distancia en el que la captación de los datos biométricos, la comparación y la identificación se producen sin un retraso significativo. Esto comprende no sólo la identificación instantánea, sino también breves retrasos limitados para evitar la elusión.

Desde el punto de vista de la seguridad jurídica, la clave para comprender plenamente el alcance y la aplicación de esta definición en la práctica es establecer qué constituye exactamente un «retraso significativo». Esto es especialmente importante dada la brevedad con la que el artículo 3 (38) define la categoría distinta de los sistemas de identificación biométrica a distancia «posteriores»: «un sistema de identificación biométrica a distancia que no sea un sistema de identificación biométrica a distancia «en tiempo real»». Los considerandos no vinculantes de la Ley de IA tampoco ofrecen muchas más explicaciones sobre lo que distingue exactamente el alcance de estas categorías clave de sistemas «en tiempo real» y «posteriores». En su lugar, el considerando 8 se limita a afirmar que los sistemas «posteriores» se refieren a los datos biométricos que «ya han sido capturados y la comparación e identificación se producen sólo después de un retraso significativo».

*** Translated with http://www.DeepL.com/Translator (free version) ***

Proyecto de ley sobre IA: La UE debe estar a la altura de sus propias ambiciones en términos de gobernanza y aplicación

https://algorithmwatch.org/en/eu-ai-act-consultation-submission-2021/

Hoy hemos presentado nuestra respuesta a la consulta de la Comisión Europea sobre la Ley de Inteligencia Artificial (IA). La propuesta de la Comisión tiene el potencial de moldear profundamente la regulación de los sistemas basados en la IA y la toma de decisiones automatizada (ADM) en las próximas décadas, no sólo en Europa sino en todo el mundo, tanto por sus efectos jurídicos directos extraterritoriales como por sus implicaciones políticas. Apreciamos el carácter de agenda de la propuesta, que probablemente estimulará el urgentemente necesario debate sobre la gobernanza de los sistemas ADM.

Sin embargo, tememos que, en su versión actual, el proyecto de ley de IA no cumpla de forma fiable y exhaustiva sus objetivos declarados. Pedimos al Consejo y al Parlamento que tomen las medidas adecuadas para corregir sus deficiencias, aclarar sus ambigüedades y mejorar su coherencia, convirtiendo en última instancia la Ley en un medio eficaz para utilizar los sistemas de ADM en beneficio de las personas, y no en su perjuicio.

Por ello, recomendamos lo siguiente:

Definir mejor el ámbito de aplicación de la ley, que es amplio pero poroso

En lugar de regular un sistema basado en la IA en función de su pertenencia a un tipo específico de tecnología, el impacto que dicho sistema tiene en las personas y la sociedad debería ser el factor decisivo en la regulación de la Ley. El concepto de sistemas automatizados/algorítmicos de toma de decisiones captaría con mayor precisión este aspecto.

Mitigar el potencial autodestructivo del enfoque basado en el riesgo

Hay que asegurarse de que los esfuerzos de armonización de la Ley no den lugar a que los sistemas de ADM sean examinados con menos detenimiento. Los Estados miembros deben tener derecho a someter estos sistemas a requisitos adicionales para mitigar su impacto potencialmente perjudicial. Debería ser obligatorio que cada sistema desplegado por agentes públicos o privados realizara una evaluación de impacto que permitiera determinar sus respectivos niveles de riesgo caso por caso.

Asegurarse de que la evaluación de riesgos es algo más que una hoja de parra

Asegurarse de que los procedimientos de normalización se llevan a cabo de forma transparente, inclusiva y democrática, incluyendo a los expertos y a la sociedad civil, con el fin de garantizar que realmente contribuyen a la protección de los valores en los que se basa la Ley. Asegurarse de que existe una evaluación de la conformidad completa que no sea nula, que no pueda eludirse, que tenga lugar dentro de una estructura de gobernanza inequívoca y que incluya adecuadamente la supervisión de terceros.

Aprovechar el potencial de la base de datos de la UE como paso hacia una mayor transparencia

La base de datos no sólo debería incluir los sistemas de alto riesgo, sino que -en lo que respecta al sector público- debería complementarse con una lista de todos los sistemas ADM utilizados por las autoridades públicas, independientemente del nivel de riesgo asignado. Complementar la información requerida en el Anexo VIII con la finalidad del sistema, una explicación del modelo (lógica implicada) y detalles sobre los actores involucrados en el desarrollo y despliegue del sistema, así como los resultados de cualquier evaluación de impacto algorítmico.

Aclarar los mecanismos de aplicación y dotar a los organismos de los medios necesarios

Aclare las funciones de las entidades que participan en la aplicación de la ley. Estas entidades deben ser suficientemente independientes, contar con los recursos adecuados y tener la experiencia pertinente -tanto en tecnología como en derechos fundamentales- para cumplir con las tareas que se les asignen.

Centrar los marcos de responsabilidad en los afectados

Introducir marcos de acceso a los datos jurídicamente vinculantes, centrados explícitamente en apoyar y permitir la investigación de interés público, que respeten plenamente la legislación sobre protección de datos y privacidad. Garantizar recursos legales fácilmente accesibles, asequibles y eficaces para que los individuos y grupos afectados puedan impugnar las decisiones automatizadas.

Trazar efectivamente una línea roja sobre la vigilancia masiva biométrica

Prohibir completamente todos los usos de los sistemas de reconocimiento biométrico en el espacio público que puedan dar lugar a una vigilancia masiva y que, por tanto, entren en conflicto con los derechos fundamentales.

Garantizar la participación y aumentar la capacidad de proteger la autonomía de los trabajadores

Garantizar a los trabajadores el derecho a obtener información sobre la finalidad de los sistemas contemplados en esta Ley, y sobre cómo se pretende conseguir la finalidad del sistema. La Ley debe incluir requisitos de proceso para las opciones de participación y codeterminación para garantizar que los trabajadores no se conviertan en meros objetos de un «gobierno por algoritmos».

*** Translated with http://www.DeepL.com/Translator (free version) ***

El puerto de Seattle prohíbe la tecnología de reconocimiento facial por parte de las fuerzas de seguridad; sigue permitiéndose cierto uso privado

https://www.geekwire.com/2021/port-seattle-bans-facial-recognition-tech-law-enforcement-private-use-remains-permitted/

La Comisión del Puerto de Seattle votó el martes a favor de prohibir el uso de tecnología biométrica con fines de vigilancia y seguridad por parte del gobierno y las fuerzas del orden en todas sus propiedades, que incluyen el puerto del centro y el Aeropuerto Internacional de Seattle-Tacoma.

La prohibición, cuidadosamente redactada, que mantiene al puerto en línea con los mandatos federales, no incluye los sistemas voluntarios de reconocimiento facial como CLEAR, que permite a los pasajeros de Sea-Tac un tránsito acelerado a través de la seguridad del aeropuerto mediante el uso de escáneres biométricos. CLEAR es un servicio privado de pago que se utiliza principalmente en aeropuertos y estadios.

El puerto de Seattle es la primera autoridad portuaria a nivel nacional que restringe el uso de la tecnología biométrica para la vigilancia.

En una declaración tras la votación, el comisario Sam Cho dijo que otros puertos del país deberían seguir su ejemplo.

«Nadie en una instalación portuaria debe temer que el puerto o un inquilino del sector privado esté capturando secretamente sus datos biométricos o rastreándolos con tecnología biométrica», dijo el Comisario Sam Cho. «Los puertos pueden y deben desempeñar un papel activo para limitar y dar forma al uso de la tecnología de reconocimiento facial».

«Esperamos que otras autoridades portuarias y gobiernos consideren adoptar el modelo del Puerto de Seattle».

Hace un mes, el condado King de Seattle se convirtió en el primer condado a nivel nacional en prohibir la tecnología de reconocimiento facial por parte de las agencias gubernamentales y las fuerzas del orden. Esa prohibición del condado no restringe el uso de la tecnología de reconocimiento facial por parte de las ciudades, los ciudadanos o las escuelas del condado de King, sino sólo por parte de las oficinas oficiales del gobierno del condado.

Hace poco más de un año, el puerto de Seattle se hizo cargo de un programa de control de reconocimiento facial exigido por el gobierno federal para los pasajeros que salen en vuelos internacionales del aeropuerto Sea-Tac. En aquel momento, los funcionarios del Puerto dijeron que, a pesar de su resistencia a la tecnología, decidieron gestionarla para evitar que el gobierno federal lo hiciera.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Proyecto de texto de la Recomendación sobre la ética de la inteligencia artificial

https://unesdoc.unesco.org/ark:/48223/pf0000377897

La presente Recomendación aborda las cuestiones éticas relacionadas con el ámbito de la Inteligencia Artificial en la medida en que entran en el mandato de la UNESCO. Plantea la ética de la IA como una reflexión normativa sistemática, basada en un marco holístico, global, multicultural y evolutivo de valores, principios y acciones interdependientes, que puede orientar a las sociedades a la hora de abordar de forma responsable los impactos conocidos y desconocidos de las tecnologías de la IA sobre los seres humanos, las sociedades y el medio ambiente y los ecosistemas, y les ofrece una base para aceptar o rechazar las tecnologías de la IA. Considera la ética como una base dinámica para la evaluación normativa y la orientación de las tecnologías de la IA, refiriéndose a la dignidad humana, el bienestar y la prevención de daños como brújula, y enraizada en la ética de la ciencia y la tecnología.

Crea tu sitio web con WordPress.com
Comenzar