Cómo los reguladores pueden acertar con la tecnología de reconocimiento facial

 El 24 de junio, el New York Times informó sobre la espantosa historia del residente de Detroit Robert Julian-Borchak Williams. Williams, que es afroamericano, vive en el rico suburbio de Farmington Hills en Detroit y fue contactado en enero por el Departamento de Policía de Detroit para entregarse. Después de ignorar lo que supuso que era una broma, Williams fue arrestado por dos oficiales de policía frente a su esposa y dos hijas pequeñas cuando llegaba a casa del trabajo. Treinta horas después de ser detenido, Williams fue puesto en libertad bajo fianza después de que quedó claro que la policía había arrestado al hombre equivocado.

https://www.brookings.edu/techstream/how-regulators-can-get-facial-recognition-technology-right/

El estado del juego y Preguntas abiertas para el futuro

 Este capítulo sintetiza amplias tendencias y preguntas abiertas para la regulación de sistemas biométricos. Extraemos conocimientos principalmente de los ensayos de este compendio para extraer lecciones de los enfoques legales existentes en múltiples países y contextos. Más allá del análisis de la situación actual, planteamos preguntas abiertas sobre dónde es necesario revisar o reinventar la regulación. Exploramos la conversación sobre políticas en rápida evolución en torno a nuevos tipos de intervenciones regulatorias, pero también, de manera crucial, los límites de la ley para capturar o resolver inquietudes sobre estas tecnologías.

https://ainowinstitute.org/regulatingbiometrics-kak.pdf

Las cuestiones éticas que acechan a la investigación sobre reconocimiento facial

 En septiembre de 2019, cuatro investigadores escribieron a la editorial Wiley para «pedirle respetuosamente» que retirara de inmediato un artículo científico. El estudio, publicado en 2018, había entrenado algoritmos para distinguir los rostros de los uigures, un grupo étnico minoritario predominantemente musulmán en China, de los de etnia coreana y tibetana1.

China ya había sido condenada internacionalmente por su intensa vigilancia y detenciones masivas de uigures en campamentos en la provincia noroccidental de Xinjiang, que según el gobierno son centros de reeducación destinados a sofocar un movimiento terrorista. Según informes de los medios de comunicación, las autoridades de Xinjiang han utilizado cámaras de vigilancia equipadas con software adaptado a los rostros uigures.

https://www.nature.com/articles/d41586-020-03187-3

¡Sonríe, estás siendo identificado! Riesgos y medidas para el uso del reconocimiento facial en espacios (semi) públicos

 Este artículo analiza el uso de la tecnología de reconocimiento facial (FRT) en espacios (semi) públicos con un enfoque en el contexto brasileño. Por lo tanto, se aborda el funcionamiento de la cadena de procesamiento de FRT, así como la naturaleza jurídica de la firma facial, enfocándose principalmente en el marco brasileño de protección de datos. FRT se ha utilizado en la vida cotidiana para varios fines, como seguridad, clasificación digital, marketing dirigido y protección de la salud. Sin embargo, el uso indiscriminado de FRT plantea grandes riesgos para la privacidad y la protección de datos. En esta perspectiva, para evitar daños como la inexactitud, la normalización de la cibervigilancia y la falta de transparencia, se identificaron salvaguardas para garantizar los derechos individuales, tales como soft law, fiscalización, estándares internacionales y sandboxes regulatorios.

https://link.springer.com/article/10.1007/s43681-020-00014-3

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Portland adopta la legislación más estricta hasta la fecha en reconocimiento facial

 El Ayuntamiento de Portland votó sobre dos ordenanzas relacionadas con el reconocimiento facial: una que prohíbe el uso por parte de entidades públicas, incluida la policía, y la otra que limita su uso por entidades privadas. Ambas medidas fueron aprobadas por unanimidad, según Oregon Public Broadcasting, afiliada local de NPR y PBS.

La primera ordenanza (PDF) prohíbe la «adquisición y uso» de tecnologías de reconocimiento facial por cualquier oficina de la ciudad de Portland. El segundo (PDF) prohíbe a las entidades privadas utilizar tecnologías de reconocimiento facial «en lugares de alojamiento público» de la ciudad.

Ambas ordenanzas sostienen que la tecnología de reconocimiento facial tiene un impacto desigual en las comunidades desfavorecidas, particularmente las personas de color y las personas con discapacidades, y que esos efectos desproporcionados van en contra del compromiso de la ciudad con «principios de derechos humanos como la privacidad y la libertad de expresión». Cualquier marco para el uso de reconocimiento facial y otras tecnologías por parte de la ciudad debe incluir «comunidades afectadas y una autoridad transparente para la toma de decisiones» para garantizar que la ciudad no «dañe los derechos civiles y las libertades civiles».

https://arstechnica.com/tech-policy/2020/09/portland-adopts-strictest-facial-recognition-ban-in-nation-to-date

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La Patrulla Fronteriza ha utilizado el reconocimiento facial para escanear más de 16 millones de volantes y solo capturó a 7 impostores

 La agencia que administra el programa de reconocimiento facial en el aeropuerto y la frontera de los Estados Unidos no ha informado adecuadamente al público sobre cómo funciona, según un nuevo informe. En general, el informe se lee como una gran señal de alerta: el gobierno de los EE. UU. Está avanzando con la adopción de esta tecnología cuestionable, y no informa al público ni controla la precisión.

Por ley, se supone que la Patrulla de Aduanas y Fronteras debe informar al público cuando se usa el reconocimiento facial colocando carteles claros y legibles que le digan a las personas que se están escaneando sus rostros y cómo pueden optar por no participar. También se supone que el departamento debe poner información precisa y actualizada en línea sobre su reconocimiento facial y proporcionar información a través de su centro de llamadas.

https://onezero.medium.com/border-patrol-used-facial-recognition-to-scan-more-than-16-million-fliers-and-caught-7-imposters-21332a5c9c40

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

¿Quién pensó que era buena ide el reconocimiento facial

 Artículo que incluye varias demandas relacionadas con el reconocimiento facial

https://www.brookings.edu/research/who-thought-it-was-a-good-idea-to-have-facial-recognition-software/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Regulando la Biometría

 El compendio comienza con una introducción y un capítulo resumen que identifica los temas clave. de los enfoques legales existentes, y plantea preguntas abiertas para el futuro. Estas preguntas destacar la investigación crítica necesaria para informar las políticas nacionales en curso y los esfuerzos de promoción para regular las tecnologías de reconocimiento biométrico.

https://ainowinstitute.org/regulatingbiometrics.pdf

Entrevista a Amba Kak, autora del estudio

https://www.technologyreview.com/2020/09/04/1008164/ai-biometric-face-recognition-regulation-amba-kak/

Un estado de vigilancia biométrica no es inevitable

https://venturebeat.com/2020/09/04/ai-weekly-a-biometric-surveillance-state-is-not-inevitable-says-ai-now-institute/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Crea tu sitio web con WordPress.com
Comenzar