La policía de Toronto utilizó el software de reconocimiento facial Clearview AI en 84 investigaciones

La policía de Toronto utilizó el software de reconocimiento facial Clearview AI para tratar de identificar a sospechosos, víctimas y testigos en 84 investigaciones criminales en los tres meses y medio que los agentes utilizaron la controvertida tecnología antes de que su jefe de policía lo descubriera y les ordenara parar.

Las revelaciones están contenidas en un documento interno de la policía obtenido recientemente por CBC News a través de una apelación a una solicitud de acceso a la información.

Entre octubre de 2019 y principios de febrero de 2020, los agentes subieron más de 2.800 fotos al software de la compañía estadounidense para buscar una coincidencia entre los tres mil millones de imágenes que Clearview AI extrajo de sitios web públicos, como Facebook e Instagram, para construir su base de datos.

La policía de Toronto admitió por primera vez que algunos de sus agentes utilizaron Clearview AI a mediados de febrero de 2020, un mes después de que el servicio negara haberlo utilizado. Sin embargo, hasta ahora no se habían dado detalles sobre cómo -y hasta qué punto- los agentes utilizaron el software de reconocimiento facial.

Cómo la tecnología basada en la IA llevó a un hombre a la cárcel con escasas pruebas

https://apnews.com/article/artificial-intelligence-algorithm-technology-police-crime-7e3345485aa668c97606d4b54f9b6220

La esposa de Michael Williams le rogaba que recordara sus viajes de pesca con los nietos, cómo solía trenzarle el pelo, cualquier cosa que le hiciera volver a su mundo fuera de los muros de hormigón de la cárcel del condado de Cook.

Sus tres llamadas diarias se habían convertido en un salvavidas, pero cuando se redujeron a dos, luego a una y después a unas pocas por semana, Williams, de 65 años, sintió que no podía seguir adelante. Hizo planes para quitarse la vida con un alijo de pastillas que había almacenado en su dormitorio.

Williams fue encarcelado el pasado agosto, acusado de matar a un joven del barrio que le pidió que le llevara durante una noche de disturbios por la brutalidad policial en mayo. Pero las pruebas clave contra Williams no procedían de un testigo o de un informante, sino de un clip de vídeo de seguridad sin ruido que mostraba un coche atravesando una intersección y un fuerte golpe captado por una red de micrófonos de vigilancia. Los fiscales dijeron que la tecnología impulsada por un algoritmo secreto que analizaba los ruidos detectados por los sensores indicaba que Williams disparó y mató al hombre.

«No dejaba de pensar en cómo pueden salirse con la suya utilizando la tecnología así contra mí», dijo Williams, hablando públicamente por primera vez sobre su calvario. «No es justo».

Williams estuvo entre rejas durante casi un año antes de que un juez desestimara el caso contra él el mes pasado a petición de los fiscales, que dijeron que no tenían pruebas suficientes.

El equipo de ShotSpotter domina la intersección de South Stony Island Avenue y East 63rd Street en Chicago el martes 10 de agosto de 2021. Una investigación de Associated Press, basada en una revisión de miles de documentos internos, correos electrónicos, presentaciones y contratos confidenciales, junto con entrevistas con docenas de defensores públicos en comunidades donde se ha desplegado ShotSpotter, ha identificado una serie de graves defectos en el uso de ShotSpotter como apoyo probatorio para los juicios. (AP Photo/Charles Rex Arbogast)

El equipo de ShotSpotter domina la intersección de South Stony Island Avenue y East 63rd Street en Chicago el martes 10 de agosto de 2021. (AP Photo/Charles Rex Arbogast)

La experiencia de Williams pone de manifiesto las repercusiones en el mundo real de la creciente dependencia de la sociedad de los algoritmos para ayudar a tomar decisiones importantes sobre muchos aspectos de la vida pública. En ningún lugar es más evidente que en las fuerzas del orden, que han recurrido a empresas tecnológicas como la empresa de detección de disparos ShotSpotter para luchar contra la delincuencia. Las pruebas de ShotSpotter se han admitido cada vez más en los tribunales de todo el país, y ya suman unas 200. El sitio web de ShotSpotter dice que es «un líder en soluciones tecnológicas policiales de precisión» que ayuda a detener la violencia armada mediante el uso de «sensores, algoritmos e inteligencia artificial» para clasificar 14 millones de sonidos en su base de datos patentada como disparos u otra cosa.

Pero una investigación de Associated Press, basada en una revisión de miles de documentos internos, correos electrónicos, presentaciones y contratos confidenciales, junto con entrevistas con docenas de defensores públicos en comunidades donde se ha desplegado ShotSpotter, ha identificado una serie de graves defectos en el uso de ShotSpotter como apoyo probatorio para los fiscales.

La investigación de AP descubrió que el sistema puede pasar por alto disparos en vivo justo debajo de sus micrófonos, o clasificar erróneamente como disparos los sonidos de los fuegos artificiales o de los coches que retroceden. Los informes forenses elaborados por los empleados de ShotSpotter se han utilizado en los tribunales para afirmar indebidamente que un acusado disparó contra la policía, o para proporcionar recuentos cuestionables del número de disparos supuestamente efectuados por los acusados. Los jueces de varios casos han desestimado las pruebas.

*** Translated with http://www.DeepL.com/Translator (free version) ***

VeriPol, el polígrafo ‘inteligente’ de la policía, puesto en cuestión por expertos en ética de los algoritmos

https://elpais.com/tecnologia/2021-03-08/veripol-el-poligrafo-inteligente-de-la-policia-puesto-en-cuestion-por-expertos-en-etica-de-los-algoritmos.html

VeriPol, un algoritmo diseñado para detectar denuncias falsas y desplegado en todas las comisarías españolas desde hace poco más de dos años.

Presentado como único en el mundo, analiza y detecta las combinaciones de palabras más comunes cuando se miente a un policía. Entre las palabras que predominan en las denuncias falsas están los “tirones” desde “atrás” o por la “espalda”, de la “mochila” o “bolso”, efectuados por un agresor con “casco” o vestido de “negro”. Las descripciones no se centran normalmente en los hechos, sino en los objetos sustraídos y su valor. De acuerdo con los datos recogidos por su impulsor, el inspector Miguel Camacho, el sistema cuenta con un 91% de acierto. Como toda inteligencia artificial, su entrenamiento requiere datos. En este caso, provienen del análisis de 1.122 denuncias de 2015 —534 verdaderas y 588 falsas—.

Aquí comienzan las dudas éticas. Aunque la policía no ha querido contestar a ninguna pregunta, la información recabada para poner en marcha VeriPol desatiende la diversidad social de España, según algunos expertos en privacidad. La mayoría de datos proceden de Andalucía, según los expertos consultados, y por ello, como argumenta Ricardo Baeza-Yates, director de Ciencia de Datos en la Northeastern University y catedrático de Informática de la Universitat Pompeu Fabra, la cobertura de todo el espacio muestral del lenguaje no está reflejada en el sistema. “El problema no es ya la cantidad, que un millar no es mucho, sino la variedad de vocablos empleados en España. Para mí es un error extrapolar el uso del lenguaje en Andalucía a otras autonomías como Galicia y País Vasco. Por no mencionar los inmigrantes, que ni están incluidos”.

GCHQ utilizará la inteligencia artificial para abordar el abuso sexual, la desinformación y la trata de niños

https://www.gchq.gov.uk/news/artificial-intelligence

Gran Bretaña es hoy una nación digital, que lidera y configura eventos en un mundo inextricablemente vinculado a través del ciberespacio. Ahora y en el futuro, el valor de nuestra economía, nuestro estilo de vida y nuestra influencia global se basará en nuestra infraestructura, capacidades y conocimientos digitales avanzados.

La inteligencia artificial, una forma de software que puede aprender a resolver problemas a una escala y velocidad imposibles para los humanos, es cada vez más esencial para la forma en que vivimos. Ya está transformando sectores tan diversos como la salud, las telecomunicaciones y la manufactura. El software de inteligencia artificial informa a nuestros navegadores, guía nuestras búsquedas en Internet y nos protege cada vez que hacemos una compra electrónica o abrimos una aplicación en nuestro teléfono inteligente.

En el siglo transcurrido desde su fundación, GCHQ ha estado a la vanguardia de la innovación en seguridad nacional. Generaciones de analistas brillantes, con su diversa mezcla de mentes, han utilizado su ingenio técnico, tecnología de vanguardia y asociaciones de amplio alcance para identificar, analizar e interrumpir las amenazas a nuestra nación.

Hoy, a medida que el cambio tecnológico continúa acelerándose, somos pioneros en nuevos enfoques para comprender el mundo complejo e interconectado que nos rodea. Durante mucho tiempo hemos defendido el uso responsable de la ciencia de datos y creemos que la IA estará en el corazón del futuro de nuestra organización.

Pensar en la IA nos anima a pensar en nosotros mismos y en lo que significa ser humano: nuestra forma de vida preferida, nuestros valores rectores y nuestras creencias comunes. El campo de la ética de la IA ha surgido durante la última década para ayudar a las organizaciones a convertir estos principios éticos en una guía práctica para los desarrolladores de software, lo que ayuda a integrar nuestros valores fundamentales en nuestras computadoras y software.

No fingiremos que no tenemos desafíos por delante. Al usar la IA, nos esforzaremos por minimizar y, cuando sea posible, eliminar los prejuicios, ya sea en torno al género, la raza, la clase o la religión. Sabemos que las personas que son pioneras en esta tecnología están determinadas por sus propias experiencias y antecedentes personales. Reconocer esto es solo el primer paso: debemos ir más allá y recurrir a una mezcla diversa de mentes para desarrollar, aplicar y gobernar nuestro uso de la IA. Si no se gestiona, nuestro uso de la IA incorpora y refleja las creencias y suposiciones de sus creadores: los sistemas de IA no son mejores ni peores que los seres humanos que los crean.

Nuestra sociedad está aprendiendo y creciendo: el Instituto Alan Turing y organismos similares están ayudando a mostrarnos cómo podemos construir y usar la IA de una manera más ética y responsable. GCHQ se compromete a crear y utilizar la inteligencia artificial de una manera que respalde la equidad, el empoderamiento, la transparencia y la responsabilidad, y a proteger a la nación de las amenazas de seguridad habilitadas por la inteligencia artificial que persiguen nuestros adversarios. Creemos que, al trabajar junto con nuestros socios en todo el Reino Unido y más allá, podemos hacer realidad esta visión.

Este documento describe la Gran Bretaña digital de hoy y nuestro enfoque basado en valores para los espacios donde las personas, la información y la tecnología se encuentran. Establece el marco de ética de datos y IA de GCHQ, y cómo pretendemos utilizar la IA en nuestras operaciones. Forma parte de nuestro compromiso con la inclusión, el debate y la apertura. El documento es el primer paso de un viaje mucho más largo: nos gustaría que se uniera a nosotros.

Ideas clave
Ilustración de un premio
Operamos dentro de un marco legal y regulatorio aclamado internacionalmente, que equilibra la preservación de importantes derechos y libertades individuales con la protección de amenazas significativas a nuestra forma de vida. La supervisión independiente garantiza que la forma en que ejercemos nuestros poderes, incluso mediante la aplicación de la inteligencia artificial, se haga de conformidad con la ley.

Ilustración de un candado
Nos tomamos muy en serio nuestras obligaciones de privacidad y derechos humanos. Para garantizar que el impacto en la privacidad se considere adecuadamente en cada circunstancia, llevamos a cabo una evaluación para determinar la necesidad y proporcionalidad de cualquier intrusión en la privacidad, tanto al considerar el uso de datos operativos para entrenar y probar el software de IA como al aplicar el software a el análisis de conjuntos de datos operativos. Estas evaluaciones están disponibles para su auditoría por la Oficina del Comisionado de Poderes de Investigación (IPCO).

Introducción
Imagínese una mañana fría y con corrientes de aire en Bletchley Park, el 18 de enero de 1944. Algunas de las mentes más brillantes de las matemáticas y la ingeniería modernas han estado trabajando juntas durante varios años en apoyo del esfuerzo bélico aliado.

Sin embargo, ha quedado claro que las computadoras electromecánicas utilizadas por los equipos ya no pueden seguir el ritmo de los sistemas de comunicación nazis. Durante seis meses, el ingeniero de telecomunicaciones Tommy Flowers ha estado trabajando en estricto secreto en un reemplazo. Esa mañana, el matemático Max Newman registra una sencilla afirmación: “Hoy llega Coloso”.

Todas las supercomputadoras modernas de GCHQ y los racks de procesadores avanzados en la nube provienen de la computadora que se entregó a Bletchley Park ese día. Colossus pesaba varias toneladas y dependía de varios miles de tubos de vacío para funcionar, pero era el wo

Tecnología de reconocimiento facial, óptica y resistencia en disturbios políticos

En respuesta al uso de métodos de vigilancia facial cada vez más intensivos en datos por parte de los organismos encargados de hacer cumplir la ley, el rostro se ha empleado como un tropo político subversivo en el trabajo de activistas, artistas y poetas contemporáneos.

A diferencia de la cámara CCTV, a la que se suele invocar como mecanismo de vigilancia facial, en la matriz de vigilancia contemporánea el objetivo de la vigilancia surge con frecuencia de los datos. Como Virginia Eubanks ha escrito sobre los datos faciales extraídos y analizados para identificar posibles sospechosos de delitos: « Si la antigua vigilancia era un ojo en el cielo, la nueva vigilancia es una araña en una red digital, probando cada hebra conectada de sospechosos vibraciones »(122). En esta formulación, la vigilancia ya no es simplemente un medio de observar y rastrear, también funciona como un mecanismo de categorización, clasificación social y control. Los procesos de clasificación son, en sí mismos, demarcaciones de poder que enmarcan «las condiciones de posibilidades de aquellos que están clasificados» (Cheney-Lippold 7). Sin embargo, mientras que los sistemas de clasificación son frecuentemente sitios de luchas políticas y sociales, como escriben Bowker y Star, sus «agendas cargadas a menudo se presentan primero como puramente técnicas y son difíciles incluso de ver» (196).

Siempre enfocado

Las protestas políticas recientes han señalado un cambio en la forma en que los organismos encargados de hacer cumplir la ley han utilizado la tecnología de reconocimiento facial, los ciudadanos se han resistido a ello y el público en general la ha entendido. Las protestas de Hong Kong de 2019-20, también conocidas como el Movimiento de Ley de Enmienda de la Ley Anti-Extradición, fueron fundamentales en la resistencia y crítica de la tecnología de reconocimiento facial dirigida por la policía. Las protestas comenzaron por un proyecto de ley que habría permitido la extradición de presuntos delincuentes a jurisdicciones con las que Hong Kong no tenía acuerdos, incluidos China continental y Taiwán. En el contexto del creciente malestar político, China estaba expandiendo rápidamente su vigilancia invasiva de reconocimiento facial, incluidas vastas redes de cámaras y herramientas de seguimiento destinadas a facilitar los arrestos planificados. En junio de 2019, cuando las manifestaciones se volvieron conflictivas, los manifestantes se cubrieron estratégicamente la cara para evadir las estrategias de vigilancia policial destinadas a señalar objetivos para su arresto mediante cámaras portátiles colocadas en postes. Al observar cómo una ‘búsqueda para identificar a manifestantes y oficiales de policía’ tenía ‘personas de ambos grupos desesperados por proteger su anonimato’, The New York Times publicó un artículo sugestivamente titulado ‘En las protestas de Hong Kong, los rostros se convierten en armas’, que detallaba el alcance a lo que las protestas habían armado la identidad tanto de los manifestantes como de la policía.

Dos meses después, cuando estallaron violentos enfrentamientos en Tsim Sha Tui, en la región semiautónoma de Hong Kong, la policía disparó balas de puf contra una multitud de manifestantes, rompiendo el ojo derecho del periodista indonesio Veby Mega Indah. A medida que proliferaban las imágenes del rostro de la joven manchado de sangre, el incidente se convirtió en un indicio de una nueva lógica política de la visualidad en la que la supresión deliberada de la vista mediante la brutalidad policial se consideraba un acto abiertamente político. Si bien el abuso físico es común en los enfrentamientos violentos entre la policía y los manifestantes, muchos creyeron que la lesión fue el resultado de una estrategia policial deliberada de apuntar a los ojos de los manifestantes: cegamiento literal para cortar la visión figurativa de una agenda democrática. En este caso, el rostro no se veía como « un sobre exterior a la persona que habla, piensa o siente », sino más bien como una ilustración muy personal y particular de hasta qué punto la policía estaba dispuesta a llegar para sofocar la disidencia (Deleuze y Guattari 167). «Cuando los rebeldes hongkoneses se apoderaron del potente símbolo del ojo herido», escribe George James, «vimos que la ceguera no es el sueño sino la pesadilla de todos aquellos que se resisten a la mirada de una maquinaria estatal voyeurista cuyas lentes no duermen». ‘

https://law.unimelb.edu.au/centres/caide/news,-media-and-events/caide-community-blog/always-in-focus-facial-recognition-technology,-optics-and-resistance-in-political-unrest

El organismo de control de la UE advierte sobre el uso de inteligencia artificial en la vigilancia policial predictiva, los diagnósticos médicos y la publicidad dirigida

 El organismo de control de los derechos de la Unión Europea advirtió sobre los riesgos de usar inteligencia artificial en la vigilancia predictiva, los diagnósticos médicos y la publicidad dirigida a medida que el bloque reflexiona sobre las reglas el próximo año para abordar los desafíos planteados por la tecnología.

Si bien los organismos encargados de hacer cumplir la ley utilizan ampliamente la inteligencia artificial, los grupos de derechos humanos dicen que los regímenes autoritarios también abusan de ella para una vigilancia masiva y discriminatoria. Los críticos también se preocupan por la violación de los derechos fundamentales de las personas y las reglas de privacidad de datos.

https://venturebeat.com/2020/12/14/eu-watchdog-warns-of-using-ai-in-predictive-policing-medical-diagnoses-and-targeted-advertising/

A Human Rights Analysis of Algorithmic Policing in Canada

Este informe examina tecnologías algorítmicas diseñadas para su uso en sistemas de aplicación de la ley penal. La vigilancia algorítmica es un área de desarrollo tecnológico que, en teoría, está diseñada para permitir a los organismos encargados de hacer cumplir la ley automatizar la vigilancia o hacer inferencias mediante el uso de procesamiento masivo de datos con la esperanza de predecir una actividad criminal potencial. Este último tipo de tecnología y los métodos de vigilancia basados en ella se denominan a menudo vigilancia predictiva. Los métodos policiales algorítmicos a menudo se basan en la agregación y el análisis de volúmenes masivos de datos, como información personal, datos de comunicaciones, datos biométricos, datos de geolocalización, imágenes, contenido de redes sociales y datos policiales (como estadísticas basadas en detenciones policiales o antecedentes penales ).

https://citizenlab.ca/2020/09/to-surveil-and-predict-a-human-rights-analysis-of-algorithmic-policing-in-canada/ 

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La corte de apelaciones escucha el caso de vigilancia aérea de Baltimore

El comisionado de policía de Baltimore, Michael Harrison, ha dicho que las imágenes solo pueden usarse para investigar homicidios, tiroteos no fatales, robos a mano armada y robos de vehículos. La abogada del departamento, Rachel Simmonsen, dijo a los jueces que las imágenes han ayudado a la policía a investigar dos casos.

«No es un píxel que tiene un derecho constitucional, es una persona individual que tiene un derecho constitucional, y la expectativa razonable de la Cuarta Enmienda solo puede ser invadida por una persona», dijo Simmonsen, argumentando que los demandantes carecen de legitimación en el caso. «Aquí, el daño específico que alegan es que serán identificados, pero incluso eso es muy poco probable».

Pero los demandantes han dicho que el solo hecho de saber que se están grabando sus movimientos hace que la gente se muestre reacia a participar en eventos comunitarios.

El juez principal Roger L. Gregory pareció no estar de acuerdo con los argumentos de Simmonsen sobre la recopilación de datos. Dijo que el programa es más invasivo que el uso de registros que revelan dónde han estado presentes los usuarios de teléfonos celulares, a los que la Corte Suprema de Estados Unidos dictaminó anteriormente que la policía generalmente requiere una orden de acceso.

«Es incluso más invasivo porque con un teléfono, alguien más puede tener mi teléfono y obtendrás los mismos datos», dijo Gregory. “Pero nadie más me tiene a mí. Entonces, siempre me atraparás … Si salgo, no puedo esconderme «. 

https://apnews.com/15efdbc34c03c16d1a5ca19f8aca74cc

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

El sheriff de Pasco creó un programa futurista para detener el crimen antes de que suceda

El alguacil del condado de Pasco, Chris Nocco, asumió el cargo en 2011 con un plan audaz: crear un programa de inteligencia de vanguardia que pudiera detener el crimen antes de que ocurriera.

Lo que realmente construyó fue un sistema para monitorear y acosar continuamente a los residentes del condado de Pasco, según descubrió una investigación del Tampa Bay Times.

Primero, la Oficina del Sheriff genera listas de personas que considera susceptibles de violar la ley, basándose en antecedentes de arrestos, inteligencia no especificada y decisiones arbitrarias de analistas policiales.

Luego envía agentes para encontrar e interrogar a cualquier persona cuyo nombre aparezca, a menudo sin causa probable, una orden de registro o evidencia de un delito específico.

Abundan las casas en medio de la noche, despertando a las familias y avergonzando a las personas frente a sus vecinos. Escriben multas por los números de buzón que faltan y el césped cubierto de maleza, cargando a los residentes con fechas de corte y multas. Vienen una y otra vez, haciendo arrestos por cualquier motivo que pueden.

https://projects.tampabay.com/projects/2020/investigations/police-pasco-sheriff-targeted/intelligence-led-policing/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Crea tu sitio web con WordPress.com
Comenzar