La policía de Toronto utilizó el software de reconocimiento facial Clearview AI en 84 investigaciones

La policía de Toronto utilizó el software de reconocimiento facial Clearview AI para tratar de identificar a sospechosos, víctimas y testigos en 84 investigaciones criminales en los tres meses y medio que los agentes utilizaron la controvertida tecnología antes de que su jefe de policía lo descubriera y les ordenara parar.

Las revelaciones están contenidas en un documento interno de la policía obtenido recientemente por CBC News a través de una apelación a una solicitud de acceso a la información.

Entre octubre de 2019 y principios de febrero de 2020, los agentes subieron más de 2.800 fotos al software de la compañía estadounidense para buscar una coincidencia entre los tres mil millones de imágenes que Clearview AI extrajo de sitios web públicos, como Facebook e Instagram, para construir su base de datos.

La policía de Toronto admitió por primera vez que algunos de sus agentes utilizaron Clearview AI a mediados de febrero de 2020, un mes después de que el servicio negara haberlo utilizado. Sin embargo, hasta ahora no se habían dado detalles sobre cómo -y hasta qué punto- los agentes utilizaron el software de reconocimiento facial.

Francia ordena a Clearview AI que borre los datos

https://www.infosecurity-magazine.com/news/france-orders-clearview-ai-delete/

El organismo regulador de la protección de datos de Francia ha ordenado a la empresa estadounidense de software de reconocimiento facial Clearview AI que deje de procesar imágenes de forma ilegal.

En un comunicado publicado hoy, la CNIL dijo que el software de reconocimiento facial de Clearview se basa en una base de datos de fotografías construida mediante la extracción de fotografías y vídeos disponibles públicamente en Internet. 

La autoridad de protección de datos ordenó a Clearview que desistiera de extraer dichas imágenes de personas en territorio francés y que borrara los datos que había recopilado de esta manera en un plazo de dos meses. 

La CNIL inició una investigación sobre Clearview AI en la primavera de 2020 después de que la autoridad recibiera quejas de particulares sobre las prácticas de datos de la empresa. 

Los investigadores descubrieron que Clearview AI «no responde eficazmente a las solicitudes de acceso y borrado. Proporciona respuestas parciales o no responde en absoluto a las solicitudes».

La asociación Privacy International también advirtió a la CNIL sobre las prácticas de datos de Clearview en mayo de 2021.

«Estas quejas revelaron las dificultades encontradas por los denunciantes para ejercer sus derechos con Clearview AI», dijo la autoridad. 

La investigación de la CNIL descubrió que Clearview AI había infringido el Reglamento General de Protección de Datos (RGPD) vigente en la Unión Europea de dos maneras diferentes.

La primera infracción cometida por Clearview AI fue el tratamiento ilícito de datos personales en violación del artículo 6 del RGPD. La CNIL determinó que Clearview AI era culpable de esta transgresión «porque la recopilación y el uso de datos biométricos se llevan a cabo sin una base legal.»

La CNIL determinó que, en un proceso «intrusivo y masivo», Clearview AI extrajo imágenes de personas de Internet para ser utilizadas por su software de reconocimiento facial sin obtener previamente su consentimiento para ello. 

«Estas personas, cuyas fotografías o vídeos son accesibles en diversos sitios web, incluidas las redes sociales, no esperan razonablemente que sus imágenes sean procesadas por la empresa para suministrar un sistema de reconocimiento facial que podría ser utilizado por los Estados con fines policiales», declaró la CNIL.

El segundo punto de Clearview es que «no ha tenido en cuenta los derechos de las personas de forma efectiva y satisfactoria, en particular las solicitudes de acceso a sus datos», contraviniendo los artículos 12, 15 y 17 del RGPD.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Los canadienses deberían estar indignados por la vigilancia masiva autoritaria

Como reveló por primera vez Blacklock’s Reporter, el gobierno canadiense realizó un seguimiento masivo de vigilancia de los canadienses sin el consentimiento del pueblo canadiense:

«La Agencia de Salud Pública reveló ayer que supervisó los cierres mediante el seguimiento confidencial de 33 millones de dispositivos móviles. Se utilizaron localizadores de torres de telefonía móvil para «comprender la capacidad de respuesta del público durante las medidas de cierre», dijo la Agencia: «La Agencia recogió y utilizó datos de movilidad»».

La Agencia de Salud Pública de Canadá dijo que llevó a cabo la vigilancia masiva «Debido a la urgencia de la pandemia, (PHAC) recogió y utilizó datos de movilidad, como los datos de localización de torres de telefonía móvil, a lo largo de la respuesta al COVID-19».

Como señala el National Post, «la Agencia tiene previsto rastrear los movimientos de la población durante aproximadamente los próximos cinco años, incluso para abordar otras cuestiones de salud pública, como «otras enfermedades infecciosas, la prevención de enfermedades crónicas y la salud mental», añadió el portavoz.»

El miedo temporal se convierte en poder estatal permanente

Los canadienses deberían estar indignados por esto.

El gobierno está explotando una vez más el miedo generado por una crisis temporal para ampliar su poder a largo plazo.

Esto es lo que hacen los estados autoritarios y comunistas, y verlo en un «país libre» como Canadá es espantoso.

Nótese cómo se menciona arriba que el gobierno planea «rastrear el movimiento de la población durante aproximadamente los próximos cinco años», y lo utilizará para «abordar otros problemas de salud pública».

Si lees entre líneas, puedes darte cuenta de cómo esto sienta las bases para la vigilancia masiva permanente del pueblo canadiense.

Entre las «cuestiones» que el gobierno cree que justifican el seguimiento masivo de los canadienses están la «salud mental» y la «prevención de enfermedades crónicas».

Esto es completamente abierto, y si alguien realmente cree que el gobierno sólo lo hará durante cinco años, entonces creerá cualquier cosa. Después de todo, el gobierno ni siquiera pidió tu consentimiento o el de tus compatriotas antes de decidir instituir la vigilancia masiva, así que ¿por qué se limitaría a cinco años más?

Además, la situación real es probablemente mucho peor de lo que admite el gobierno:

«Creo que el público canadiense se enterará de muchas otras iniciativas de vigilancia no autorizadas antes de que termine la pandemia… y después», dijo en un correo electrónico David Lyon, autor de Pandemic Surveillance y ex director del Centro de Estudios de Vigilancia de la Universidad de Queen.

Lyon advirtió que el PHAC «utiliza el mismo tipo de lenguaje ‘tranquilizador’ que emplean las agencias de seguridad nacional, por ejemplo, no mencionando las posibilidades de reidentificación de los datos que han sido ‘desidentificados'».

«En principio, por supuesto, los datos de las células pueden utilizarse para el seguimiento».

El gobierno federal también compartió los datos con las provincias, lo que significa que muchos gobiernos «conservadores» fueron cómplices de este programa de vigilancia masiva sin oponerse, sin hablar y sin ser honestos con el pueblo canadiense.

Esto apunta al hecho de que gran parte de nuestro sistema político -en todo el espectro político- se ha transformado en una masa indistinguible de estatistas autoritarios que parecen ver a países como China como un modelo a seguir, en lugar de la antítesis de lo que debería ser una nación libre.

Medidas voluntarias sustituidas por la coacción y la fuerza

Un aspecto clave de los últimos dos años ha sido que los gobiernos han tratado de obligar a la gente a cumplir las órdenes del Estado, en lugar de respetar la toma de decisiones o la elección individual.

Por ejemplo, en lugar de que los funcionarios de salud pública y los políticos animen a los canadienses a evitar las grandes reuniones, han impuesto restricciones y amenazado con castigos si se violan esas restricciones.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Temor por la privacidad al implantar el metro de Moscú un sistema de pago por reconocimiento facial

https://www.theguardian.com/world/2021/oct/15/privacy-fears-moscow-metro-rolls-out-facial-recognition-pay-system

El metro de Moscú ha puesto en marcha lo que las autoridades han alabado como el primer sistema de pago por reconocimiento facial a gran escala del mundo, en medio de la preocupación por la privacidad de la nueva tecnología.

El sistema sin dinero en efectivo, sin tarjeta y sin teléfono, denominado Face Pay, se puso en marcha el viernes en más de 240 estaciones de la capital rusa.

«Ahora todos los pasajeros podrán pagar sus viajes sin sacar el teléfono, el metro o la tarjeta bancaria», tuiteó el jueves por la noche el alcalde de Moscú, Sergey Sobyanin.

Para activar Face Pay, dijo Sobyanin, los pasajeros tendrán que conectar su foto, su tarjeta bancaria y su tarjeta de metro al servicio a través de la aplicación móvil del metro. «Bastará con mirar a la cámara para pasar por los torniquetes», dijo Sobyanin.

Las autoridades moscovitas, que esperan que hasta el 15% de los pasajeros del metro utilicen Face Pay con regularidad en los próximos tres años, afirmaron que el sistema agilizará el flujo de personas, sobre todo en momentos de gran afluencia.

«Moscú es la primera del mundo en introducir Face Pay a tal escala. La tecnología es nueva y muy compleja, seguiremos trabajando para mejorarla», añadió el alcalde.

Las autoridades han dicho que los datos de los pasajeros estarán «encriptados de forma segura», afirmando que la información recogida se almacenará en centros de procesamiento de datos a los que solo tendrá acceso el personal del Ministerio del Interior.

Toyota detiene los autobuses autoconducidos de los Juegos Paralímpicos después de que uno atropellara a un atleta con discapacidad visual

https://www.theguardian.com/technology/2021/aug/28/toyota-pauses-paralympics-self-driving-buses-after-one-hits-visually-impaired-athlete

Toyota se ha disculpado por el «exceso de confianza» de un autobús autoconducido tras atropellar a un judoka paralímpico en la villa de los atletas y ha dicho que suspenderá temporalmente el servicio.

El atleta japonés, Aramitsu Kitazono, no podrá competir este fin de semana en su categoría de 81 kilos tras quedar con cortes y contusiones después del impacto con el vehículo «e-Palette». Sus lesiones provocaron la intervención personal del presidente de Toyota, Akio Toyoda.

«Lamentamos mucho que el accidente haya preocupado a mucha gente», dijo Toyoda. «Un vehículo es más fuerte que una persona, así que obviamente me preocupé por cómo estaban. Demuestra que los vehículos autónomos aún no son realistas para las carreteras normales».

Como parte de su patrocinio de Tokio 2020, Toyota ha estado mostrando sus vehículos autónomos a través de un servicio de transporte, que ha estado funcionando las 24 horas del día en la villa de los atletas.

El jueves, sin embargo, uno de los autobuses se salió de un cruce en T y atravesó un paso de peatones mientras Kitazono, un atleta con discapacidad visual, cruzaba a pie.

La policía de Tokio declaró que los operarios del vehículo les habían dicho que «eran conscientes de que había una persona allí, pero pensaron que [la persona] se daría cuenta de que venía un autobús] y dejaría de cruzar la [calle]», según el periódico Asahi Shimbun.

Un Volvo autoconducido

Uber cierra su operación de autoconducción en Arizona tras un accidente mortal

Más información

El viernes, Toyoda se disculpó por el incidente y dijo que se suspendería temporalmente el uso de los autobuses e-Palette.

Toyoda visitó el lugar del accidente y también revisó las imágenes de vídeo del incidente. Admitió que «había habido un exceso de confianza» en la tecnología de conducción autónoma.

El entrenador de Kitozano, Yoshiyasu Endo, declaró al Japan Times que el atleta de 30 años se estaba recuperando bien. «Quería cuidarse bien. Nos sentimos apenados, pero creo que él es el más decepcionado», dijo Endo.

Toyota dijo en un comunicado: «Llevaremos a cabo nuestra propia investigación exhaustiva sobre la causa del accidente, y seguiremos coordinándonos estrechamente con el Comité Organizador de los Juegos Olímpicos y Paralímpicos de Tokio para asegurarnos de evitar que se produzcan incidentes en el futuro.»

*** Translated with http://www.DeepL.com/Translator (free version) ***

carta sobre el uso del sistema de reconocimiento automático de imágenes en migrantes en Italia

En relación con el uso de tecnologías de reconocimiento facial para controlar las operaciones de desembarco en Italia por parte de las autoridades policiales, la Autoridad de Protección de Datos italiana, según la información compartida, examinó el llamado «Sistema Sari en tiempo real», sobre la base de una evaluación de de protección de datos realizada por el Ministerio del Interior, de conformidad con la legislación nacional por la que se aplica la Directiva de aplicación de la ley (UE) 2016/6801 , con anterioridad a la activación de dicho sistema. En particular, este sistema no fue diseñado para ser utilizado específicamente para actividades de migración, asilo y control de fronteras, sino en general para operar en apoyo a las actividades de investigación.

El reconocimiento facial «racista» suscita preocupaciones éticas en Rusia

https://news.trust.org/item/20210705014850-6gwm1/

Desde el escaneo del rostro de los residentes para permitirles entrar en su edificio hasta la detección de sospechosos por parte de la policía en una multitud, el auge del reconocimiento facial va acompañado de un creciente coro de preocupación por los usos poco éticos de la tecnología.

Un informe publicado el lunes por investigadores estadounidenses en el que se demuestra que empresas rusas de reconocimiento facial han creado herramientas para detectar la raza de una persona ha suscitado el temor de los grupos de derechos digitales, que describen la tecnología como «hecha a propósito para la discriminación».

Las guías para desarrolladores y los ejemplos de código desvelados por la empresa de investigación de videovigilancia IPVM muestran que el software anunciado por cuatro de las mayores empresas rusas de análisis facial puede utilizar la inteligencia artificial (IA) para clasificar los rostros en función de su etnia o raza percibida. Todavía no hay indicios de que la policía rusa haya tomado como objetivo a las minorías utilizando el software desarrollado por las empresas -AxxonSoft, Tevian, VisionLabs y NtechLab-, cuyos productos se venden a las autoridades y empresas del país y del extranjero.

Sin embargo, AxxonSoft, con sede en Moscú, dijo que la investigación de la Fundación Thomson Reuters le llevó a desactivar su función de análisis étnico, afirmando en una respuesta por correo electrónico que no estaba interesada en «promover ninguna tecnología que pudiera ser una base para la segregación étnica».

Los resultados del IPVM, vistos en exclusiva por la Fundación Thomson Reuters, han despertado la preocupación de los grupos de derechos civiles, que afirman que la elaboración de perfiles raciales es habitual en el país y señalan que las autoridades ya han utilizado la IA para identificar y detener a manifestantes antigubernamentales.

«Los hallazgos subrayan el feo racismo que se ha incorporado a estos sistemas», dijo Edin Omanovic, director de defensa de Privacy International, una organización benéfica de derechos con sede en Londres.

«Lejos de ser herramientas de seguridad benignas de las que se puede abusar, estas herramientas están profundamente arraigadas en algunas de las ideas más destructivas de la humanidad y hechas a propósito para la discriminación».

El Ministerio del Interior ruso y NtechLab no respondieron a las solicitudes de comentarios.

Las otras tres empresas expresaron su escepticismo sobre la capacidad actual de su tecnología para permitir abusos, pero dijeron que son conscientes de las preocupaciones éticas relacionadas con su uso.

Vadim Konushin, director general de Tevian, también conocida como Video Analysis Technologies, negó que los usos actuales de su herramienta por parte de la policía puedan afianzar la discriminación, y VisionLabs dijo que su software de análisis étnico se desarrolló únicamente con fines de investigación interna.

FOTO DE ARCHIVO: Un cliente utiliza el nuevo software de reconocimiento facial en el nuevo iPhone X dentro de la tienda de Apple en Regents Street en Londres, Gran Bretaña, 3 de noviembre de 2017. REUTERS/Peter Nicholls

ANÁLISIS DE LA ETNIA

La detección de la raza forma parte de una gama cada vez más amplia de analíticas ofrecidas por las empresas de reconocimiento facial que permiten a los clientes detectar rasgos físicos como el color del pelo y las expresiones faciales, y deducir información como la edad, el género y las emociones de una persona.

El software desarrollado por AxxonSoft, Tevian, con sede en Moscú, y VisionLabs, una empresa fundada en Rusia con sede en los Países Bajos, clasifican a las personas que pasan por delante de sus cámaras en aproximadamente los mismos grupos: Asiáticos, negros, blancos e indios.

*** Translated with http://www.DeepL.com/Translator (free version) ***

La inevitable utilización de los datos de las aplicaciones ya está aquí

https://www.vice.com/en/article/pkbxp8/grindr-location-data-priest-weaponization-app

Finalmente ocurrió. Tras años de advertencias por parte de investigadores, periodistas e incluso gobiernos, alguien utilizó datos de localización altamente sensibles de una aplicación de smartphone para rastrear y acosar públicamente a una persona concreta. En este caso, la publicación católica The Pillar dijo que utilizó los datos de localización vinculados a Grindr para rastrear los movimientos de un sacerdote, y luego lo reveló públicamente como potencialmente gay sin su consentimiento. El Washington Post informó el martes de que la revelación llevó a su dimisión.

PUBLICIDAD

La noticia demuestra con crudeza no sólo el poder inherente de los datos de localización, sino también cómo la posibilidad de ejercer ese poder se ha extendido desde las empresas y las agencias de inteligencia hasta prácticamente cualquier tipo de individuo descontento, sin escrúpulos o peligroso. Un mercado creciente de intermediarios de datos que recopilan y venden datos de innumerables aplicaciones ha hecho que cualquiera con un poco de dinero y esfuerzo pueda averiguar qué teléfono de un supuesto conjunto de datos anónimos pertenece a un objetivo, y abusar de esa información.

«Los expertos han advertido durante años que los datos recogidos por las empresas de publicidad de los teléfonos de los estadounidenses podrían utilizarse para rastrearlos y revelar los detalles más personales de sus vidas. Desgraciadamente, tenían razón», dijo el senador Ron Wyden en un comunicado a Motherboard, en respuesta al incidente. «Los corredores de datos y las empresas de publicidad han mentido al público, asegurándoles que la información que recogían era anónima. Como demuestra este terrible episodio, esas afirmaciones eran falsas: las personas pueden ser rastreadas e identificadas».

En resumen, The Pillar dice que monseñor Jeffrey Burrill, que fue secretario general de la Conferencia Episcopal de Estados Unidos (USCCB) antes de su dimisión, visitó bares gay y otros lugares mientras usaba la aplicación de citas gay Grindr.

«Un análisis de las señales de datos de la app correlacionadas con el dispositivo móvil de Burrill muestra que el sacerdote también visitó bares gay y residencias privadas mientras usaba una app de ligue basada en la ubicación en numerosas ciudades desde 2018 hasta 2020, incluso mientras viajaba en misión para la conferencia episcopal de Estados Unidos», escribió el medio. The Pillar dice que los datos de localización son «registros comercialmente disponibles de los datos de la señal de la app», y que obtuvo los registros de «un proveedor de datos» y luego los autenticó con una consultora de datos.

¿Conoces algún otro abuso de los datos de localización? Nos encantaría que nos lo contaras. Con un teléfono u ordenador que no sea de trabajo, puedes ponerte en contacto con Joseph Cox de forma segura en Signal en el número +44 20 8133 5190, en Wickr en josephcox, o en el correo electrónico joseph.cox@vice.com.

Los datos en sí no contenían el nombre real de cada usuario de teléfono móvil, pero The Pillar y su socio pudieron determinar qué dispositivo pertenecía a Burill al observar uno que aparecía en la residencia del personal de la USCCB y en su sede, en los lugares de reunión en los que estuvo, así como en la casa del lago de su familia y en un apartamento en el que figura como residente. En otras palabras, consiguieron, como los expertos han dicho desde hace tiempo que es fácil de hacer, desenmascarar a esta persona concreta y sus movimientos a lo largo del tiempo a partir de un conjunto de datos supuestamente anónimos.

Un portavoz de Grindr dijo a Motherboard en una declaración enviada por correo electrónico que «la respuesta de Grindr está en consonancia con la historia editorial publicada por el Washington Post que describe la entrada original del blog de The Pillar como homofóbica y llena de insinuaciones sin fundamento». Las supuestas actividades enumeradas en esa entrada de blog no atribuida son inviables desde un punto de vista técnico y es increíblemente improbable que ocurran. No hay absolutamente ninguna prueba que apoye las alegaciones de recopilación o uso indebido de datos relacionados con la aplicación Grindr como se pretende.»

*** Translated with http://www.DeepL.com/Translator (free version) ***

La tecnología de reconocimiento facial se ha utilizado ampliamente en el gobierno de Estados Unidos durante años, según un nuevo informe

https://edition.cnn.com/2021/06/30/tech/government-facial-recognition-use-gao-report/index.html

Cuando la muerte de George Floyd desencadenó protestas en ciudades de todo el país, seis agencias federales recurrieron al software de reconocimiento facial para tratar de identificar a las personas que aparecían en las imágenes de los disturbios civiles, según un nuevo informe de una agencia gubernamental.

Las agencias utilizaron el software de reconocimiento facial entre mayo y agosto del año pasado «para apoyar las investigaciones penales relacionadas con los disturbios civiles, las revueltas o las protestas», según un informe publicado el martes por la Oficina de Rendición de Cuentas del Gobierno de EE.UU., basado en una encuesta realizada a 42 agencias federales. El Servicio de Inspección Postal de EE.UU., por ejemplo, dijo a la GAO que utilizó el software de Clearview AI, un controvertido sistema de reconocimiento facial, para ayudar a rastrear a personas sospechosas de delitos, como robar y abrir el correo y robar en los edificios del Servicio Postal.

Amazon bloqueará indefinidamente a la policía el uso de su software de reconocimiento facial

Amazon bloqueará indefinidamente a la policía el uso de su software de reconocimiento facial

La muerte de Floyd en mayo de 2020, y el ajuste de cuentas racial que le siguió, hizo que destacadas empresas tecnológicas como Amazon y Microsoft dejaran de proporcionar herramientas de reconocimiento facial a las fuerzas del orden. Pero, como muestra el informe de la GAO, para entonces esta tecnología ya se había extendido por todo el gobierno estadounidense, con usos que iban desde la realización de investigaciones criminales hasta la verificación de la identidad.

Además, los organismos a menudo desconocían el uso que sus empleados o contratistas hacían de esta tecnología. Una agencia, por ejemplo, dijo en un primer momento a la GAO que sus empleados no utilizaban sistemas de reconocimiento facial ajenos al gobierno federal -como los de la policía estatal o de empresas privadas-, pero una encuesta realizada en esa agencia descubrió más tarde que los empleados utilizaban un sistema de este tipo para realizar más de 1.000 búsquedas de reconocimiento facial.

Según el informe, al menos 20 agencias federales utilizaron o poseyeron software de reconocimiento facial entre enero de 2015 y marzo de 2020, incluyendo el FBI, el Servicio Secreto, el Servicio de Inmigración y Aduanas de Estados Unidos, la Policía del Capitolio de Estados Unidos, la Oficina Federal de Prisiones y la Administración para el Control de Drogas. Además de utilizarse para vigilar los disturbios civiles tras la muerte de Floyd, el informe indica que tres agencias utilizaron la tecnología para localizar a los alborotadores que participaron en el ataque al Capitolio de EE.UU. en enero.

El uso de la tecnología de reconocimiento facial para identificar a personas tras la muerte de Floyd, en particular, preocupa a Lindsey Barrett, miembro del Centro de Derecho de la Universidad de Georgetown y profesora adjunta de Derecho que estudia la privacidad y la vigilancia. Barrett dijo que le preocupa la posibilidad de que los manifestantes puedan ser sometidos a un «escrutinio injustificado por expresar» sus «derechos de la Primera Enmienda».

«Es bastante aterrador», dijo a CNN Business.

Aunque 14 agencias dijeron a la GAO que utilizaban tecnología de reconocimiento facial de fuera del gobierno federal para ayudar en las investigaciones criminales, sólo una de ellas «tiene conocimiento de qué sistemas no federales son utilizados por los empleados», según el informe de la GAO. Esa agencia es el Servicio de Inmigración y Aduanas de EE.UU., que dijo a la GAO que a finales de 2020 estaba elaborando una lista de tecnologías de reconocimiento facial aprobadas para el uso de los empleados, según el informe.

Crea tu sitio web con WordPress.com
Comenzar