Diseña un sitio como este con WordPress.com
Comenzar

Identidad digital y biometría: Cuando tu cara revela tu estado de vacunación … y más

https://lens.monash.edu/@politics-society/2021/11/17/1384067/digital-identity-when-your-face-reveals-your-vaccination-status-and-more

A medida que muchos australianos salen de las restricciones de cierre, se enfrentan a una serie de nuevos puntos de control: en las tiendas, el lugar de trabajo, los lugares de ocio y las fronteras estatales.

Muchos de nosotros no solo tenemos que registrarnos en varios lugares escaneando códigos QR, sino que ahora se nos exige que mostremos una prueba de vacunación y, en algunos contextos, una prueba de pruebas de COVID-19 negativas.

El resultado ha sido la imagen cada vez más familiar de personas tanteando con sus teléfonos inteligentes en la acera frente a cualquier espacio en el que intentan entrar. En algunos casos, esto puede significar frustrantes combates con las aplicaciones («¿Cuál era el código PIN de la aplicación de Medicare?»; «¿Lo he vinculado a mi cuenta de MyGov?»; «¿Dónde está ese texto con los resultados de mis pruebas?»; «Uh-oh… ¡mi batería se está agotando!»).

Australia no está sola. La pandemia ha contribuido a un nuevo conjunto de protocolos para viajes y accesos de todo tipo, todo ello en nombre del control de la circulación humana para frustrar la del virus.

Estas nuevas capas de verificación y control sientan las bases de una tecnología que ofrece cortar el nudo gordiano de las contraseñas, los nombres de usuario, los códigos PIN y QR, así como los pasaportes, las tarjetas de vacunas y los billetes de papel: la biometría.

Aprovechando el éxito del uso de la tecnología de reconocimiento facial para el control fronterizo, la Asociación Internacional de Transporte Aéreo (IATA) ha presentado una iniciativa de pases de viaje que permitiría un tránsito «sin fisuras», respetando las restricciones de la pandemia. De acuerdo con la afirmación de la IATA de que «el futuro de la aviación es biométrico», su solución «One ID» no sólo identificaría las credenciales de viaje de un pasajero, sino que las vincularía, a nivel internacional, con el estado de las vacunas de los viajeros, los resultados de las pruebas y/o la «prueba de recuperación».

La solución «One ID» aborda un problema que no se limita a los viajes aéreos -o a la respuesta a la COVID-19-, sino que se ve agravado por la perspectiva de viajar en tiempos de pandemia.

En términos más generales, nos encontramos navegando por una creciente variedad de solicitudes de acceso y puntos de control tanto en línea como fuera de ella. Según algunas estimaciones, la persona media con acceso a dispositivos inteligentes y recursos en línea tiene unas 100 contraseñas, y este número está creciendo rápidamente. La proliferación de los servicios en línea puede facilitar el acceso, pero arroja obstáculos en forma de credenciales de acceso, como probablemente ha descubierto cualquiera que haya tenido que restablecer su sistema de identificación de dos factores.

Utilizamos contraseñas para ver la televisión y las películas, para acceder al banco, a la biblioteca, a nuestros libros, a nuestro correo electrónico, a nuestros periódicos, a la intranet del trabajo, a los boletines de notas de nuestros hijos, a nuestros sitios de compras, a nuestro proveedor de servicios de Internet, a nuestra cuenta de servicios gubernamentales, a nuestra cuenta de peaje en la autopista, a nuestra música, a nuestras cuentas en las redes sociales, a nuestros juegos en línea, a nuestros documentos y calendarios, y así sucesivamente.

El actual intento de controlar la propagación del COVID-19 significa que el espacio físico se parecerá más a los espacios protegidos por contraseña en línea; tendremos que mostrar credenciales para verificar nuestro estado de inmunidad y marcar nuestros movimientos a medida que avancemos en el curso de nuestra vida cotidiana: presentarnos en el trabajo, ir a un café para almorzar o al teatro por la noche.

Estas formas de «fricción» que se multiplican al movernos por el espacio físico y virtual sientan las bases para una solución biométrica unificada, una respuesta tecnológica a los obstáculos digitales que se multiplican a nuestro alrededor.

La solución «One ID» prevista por la IATA para los viajes en avión anticipa un mundo en el que, en lugar de tener que lidiar con los pasaportes y otras formas de identificación, seremos reconocidos por sistemas automatizados que nos permitirán pasar sin problemas por estos puntos de control.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Anuncio publicitario

Vigilancia como Servicio

RESUMEN EJECUTIVO

Este informe examina el mercado europeo que

produce y exporta sistemas de vigilancia asistida por IA a

gobiernos de todo el mundo. En particular, examina lo que

lo que llamamos «Vigilancia como Servicio» (SaaS): servicios y

software que se proporcionan para la vigilancia, y que consisten en

de sistemas complejos que se ofrecen con interfaces fáciles de usar

de fácil uso, así como un mantenimiento continuo, actualizaciones y

y soporte para la resolución de problemas (en lugar de una compra única).

Este análisis se centra en tres ejemplos de estos servicios que

que se han vuelto especialmente controvertidos últimamente: el reconocimiento y el análisis facial, el reconocimiento y el análisis de la voz.

reconocimiento y análisis faciales, el reconocimiento y análisis del habla

y los sistemas de análisis del comportamiento y de empuje.

Estimar el tamaño del mercado de estas industrias es extremadamente

difícil debido a la variedad de las propias tecnologías.

son. Además, los sistemas de vigilancia tienen largas cadenas de suministro

y un gran número de componentes para hacerlos

componentes para hacerlos funcionar, algunos más difíciles de rastrear que otros. Junto con

la falta de transparencia, la estimación del número de

fabricantes, intermediarios, compradores e ingresos totales de

ventas presenta importantes desafíos. No obstante, las estimaciones

de 2020 han señalado que el mercado mundial de análisis y reconocimiento facial

facial está valorado en unos 3.860 millones de dólares.

mil millones de dólares, el sector del reconocimiento y el análisis del habla

10-11 mil millones de dólares, y el análisis del comportamiento tiene un valor de

401-891 millones de dólares, y se prevé que todas estas valoraciones

se prevé que todas estas valoraciones crezcan exponencialmente en la próxima década.

Este examen de la contribución de Europa al mercado de la vigilancia

vigilancia se basa en datos de grupos de la sociedad civil y

periodistas, materiales de empresas y organismos públicos

fuentes secundarias, comentarios de expertos, documentos

documentación pública sobre litigios y conjuntos de datos preexistentes.

A partir de este conjunto de pruebas, el informe examina

los tipos de servicios que se ofrecen, los distintos casos de uso

y las controversias que se han suscitado. En

En el caso de los tres tipos de servicios, parece haber

de los tres tipos de servicios, parece haber preocupaciones urgentes en torno a las propias tecnologías, las

las prácticas empresariales que las rodean y el modo en que se despliegan estos sistemas.

y la forma en que se despliegan estos sistemas. Este informe también señala consideraciones que van más allá de

de los casos que aquí se analizan, como que gran parte de las operaciones de

operaciones de vigilancia actuales se encuentra más allá de la inteligencia artificial y

sistemas de aprendizaje automático o SaaS, la inmensa industria de investigación y

industria del desarrollo de futuras tecnologías de vigilancia

y los numerosos conductos de datos que alimentan estos sistemas.

Este informe refuerza lo que muchos grupos de la sociedad civil

periodistas e investigadores independientes han instado antes.

A medida que aumenta el solapamiento entre las tecnologías de IA y las aplicaciones de

de vigilancia masiva, también lo hace el potencial de

potencial de daño. Ya sea que esto se produzca al probar

de vigilancia en poblaciones desprevenidas, el uso de datos sin

de datos sin el consentimiento del usuario o la exportación de

de vigilancia que pueden ser mal utilizadas por los gobiernos, el

desarrollo ilimitado de los sistemas SaaS amenaza los derechos

derechos humanos. Basándonos en las últimas pruebas sobre el desarrollo

del mercado europeo de SaaS, se necesitan urgentemente intervenciones políticas y normativas más amplias.

políticas y normativas más amplias. Esto incluye la necesidad de:

1. Implementar mecanismos reguladores más estrictos

para la industria de la vigilancia en Europa, incluyendo moratorias

moratorias y prohibiciones de determinadas tecnologías que

producen el mayor daño.

2. Implementar una evaluación y una regulación más rigurosas

regulación sobre los efectos de largo alcance de la

industria de la vigilancia más allá de la UE.

3. 3. Promulgar sanciones claras y proporcionadas por

incumplimiento de las normas y directrices.

4. Potenciar mejor los mecanismos de supervisión del

diseño, el desarrollo y el despliegue de aplicaciones de

de aprendizaje automático de manera que no se imponga la

la carga de denunciar la violación de los derechos humanos a los

de los derechos humanos a los grupos de la sociedad civil, los periodistas, los investigadores y los

ciudadanos individuales.

Quedan muchas incertidumbres sobre el futuro de la vigilancia

y las industrias que hacen posible estas operaciones.

Aunque el panorama sigue resistiéndose a cualquier definición fácil

está claro que, si no se regula lo suficiente, este mercado tiene

potencial para causar daños y consecuencias duraderas.

*** Translated with http://www.DeepL.com/Translator (free version) ***

El anillo de Amazon: la vigilancia como servicio resbaladizo

https://www.tandfonline.com/doi/full/10.1080/09505431.2021.1983797

En la tradición CTS del modesto erudito-activista, documentamos las críticas de los activistas y proporcionamos una mayor justificación conceptual de la opinión de que los intentos de gobernar los timbres de vídeo Ring de Amazon están muy probablemente condenados al fracaso.

Datos íntimos: ¿puede una persona que sigue sus pasos, su sueño y su alimentación ser realmente libre?

https://www.theguardian.com/lifeandstyle/2021/oct/05/intimate-data-can-a-person-who-tracks-their-steps-sleep-and-food-ever-truly-be-free
Primero contamos nuestros pasos, luego los latidos del corazón, la presión arterial y la frecuencia respiratoria. Controlamos nuestro sueño, los entrenamientos, las menstruaciones y las ventanas de fertilidad. Pero queda mucho por medir, ya que se nos vende la promesa de la autooptimización en la vasta y a veces controvertida frontera del seguimiento de la salud, un mercado cada vez más medicalizado que ha florecido desde que los podómetros se volvieron digitales y los relojes inteligentes.
La última métrica de salud disponible para los consumidores procede de un dispositivo médico diseñado originalmente para personas con diabetes; permite a los usuarios hacer un seguimiento de sus niveles de azúcar en sangre. Pero, como siempre, las grandes preguntas son: ¿nos hará más saludables y es prudente sacrificar datos cada vez más íntimos?
No hay duda de que el dispositivo en sí es revolucionario. En 2017, el NHS comenzó a prescribir el FreeStyle Libre para controlar los niveles de glucosa en sangre de las personas con diabetes. En lugar de pinchar un dedo y exprimir una gota de sangre en una tira reactiva, el paciente podía pegar un sensor del tamaño de una moneda con una diminuta sonda en la parte superior del brazo. La sonda, indolora, apenas perfora el brazo, mide la glucosa constantemente a través de los líquidos justo debajo de la piel y ofrece una lectura con el paso de un lector electrónico.
El sistema promete más datos y control para los diabéticos, que intentan evitar los peligrosos picos y caídas de los niveles de azúcar en sangre. Pronto podrían emparejar sus teléfonos con el sensor y mantener un registro en una aplicación sin tener que extraer sangre. Fue una unión de tecnologías médicas y de consumo que cambió la vida.
Laura Douglas no es diabética, pero hace unos años empezó a experimentar con uno de los sensores, fabricado por la empresa sanitaria estadounidense Abbott Laboratories. En términos sencillos, los picos de azúcar pueden inducir el hambre. Si se come una galleta, los niveles suben y luego se desploman: se quiere otra galleta.
«Me di cuenta de que casi había cambiado el cableado de mi cerebro», dice Douglas, un ingeniero de 29 años e investigador de la salud afincado en Londres. «Si veía un pico, sabía lo que lo había causado y evitaba ese alimento porque tenía el recuerdo del pico, en lugar de pesarme todos los días y pensar: ‘Va bien en general'».
Subidón de azúcar … los diabéticos se miden ahora los niveles de glucosa con sensores.Subidón de azúcar… los diabéticos ahora miden sus niveles de glucosa con sensores. Fotografía: BSIP/Universal Images Group/Getty ImagesEn 2018, Douglas fundó MyLevels. La startup, que está en fase de pruebas, empareja los sensores FreeStyle Libre con su propia app para entender los efectos de los alimentos en la respuesta de la glucosa de un individuo, utilizando la inteligencia artificial para recomendar una dieta personalizada. «Muchas dietas te dicen que no comas cuando tus niveles de azúcar se desploman», dice Douglas, que es de Edimburgo y tiene un máster en aprendizaje automático. «Nosotros decimos: ‘No te des un pico de azúcar en primer lugar'».*** Translated with http://www.DeepL.com/Translator (free version) ***

Una norma para acabar con el capitalismo de la vigilancia – ¡Pánico! en el Consejo – El Reino Unido quiere más innovación en IA

https://www.politico.eu/newsletter/ai-decoded/politico-ai-decoded-a-standard-to-end-surveillance-capitalism-panic-at-the-council-uk-wants-more-ai-innovation/

Conoce al IEEE 7000. No es un pájaro, un avión o el nuevo humanoide de Elon Musk. Es la primera norma mundial que mostrará a las empresas tecnológicas de forma muy práctica cómo construir tecnología que aporte valor humano y social, en lugar de sólo dinero. El IEEE (pronunciado ojo-triple E) es la mayor asociación de ingeniería del mundo, con más de 400.000 miembros, y tiene mucha importancia en el sector.

AI: Decoded llamó a Sarah Spiekermann, de la Universidad de Economía y Negocios de Viena, que participó en el esfuerzo, para saber más.

Recalibrando la IA: La norma se inspira en el concepto de «ingeniería basada en valores», que hace que las empresas sean conscientes de los retos éticos de la tecnología y les ayuda a dar prioridad al bienestar de los seres humanos. Spiekermann dijo que el modelo de capitalismo de vigilancia neoliberal -conocido por Shoshana Zuboff- ya no funciona. «El mundo está preparado para una nueva forma de hacer las cosas», dijo Spiekermann. «Tenemos que vivir con beneficios razonables en lugar de extraordinarios», continuó.

¿Qué es una «buena» IA? La norma, que ha tardado cinco años en elaborarse, se presentará el 15 de septiembre. Como adelanto, Spiekermann me dice que la IEEE 7000 determinará que una «buena» IA será aquella que dé a las empresas que han externalizado su IA el control sobre la calidad de los datos utilizados en el sistema de IA; los procesos de selección que alimentan la IA; el diseño del algoritmo; la evolución de la lógica de la IA y «las mejores técnicas disponibles para un nivel suficiente de transparencia de cómo la IA está aprendiendo y llegando a sus conclusiones».

No es demasiado tarde: Las empresas tecnológicas, entre ellas Google y Facebook, se han esforzado por promover su visión de la ética de la IA. Spiekermann dijo que su actual trabajo ético puede integrarse en la norma IEEE 7000. Y cuando estas empresas lancen nuevas tecnologías, «pueden utilizar este proceso y vincularlo a una nueva misión, de modo que puedan migrar lentamente fuera del modelo capitalista de vigilancia en el que han estado trabajando», dijo Spiekermann.

ACTO DE INTELIGENCIA ARTIFICIAL

PÁNICO EN EL CONSEJO: Uno de los temas más controvertidos de la Ley de Inteligencia Artificial son sus prohibiciones de usos «inaceptables» de la IA, y en concreto la restricción del uso de la identificación biométrica remota por parte de las fuerzas del orden en lugares públicos. El proyecto de ley no los prohíbe, y permite su uso para luchar contra la delincuencia «grave». Es probable que el Parlamento Europeo impulse una prohibición más estricta. Mientras tanto, el Consejo de la Unión Europea, formado por diplomáticos de los países miembros de la UE, no está tan seguro. Los países de la UE no quieren que Bruselas dicte cuestiones de seguridad nacional, y los ministros de Interior de la UE están en pie de guerra por el intento de la Ley de Inteligencia Artificial de restringir las fuerzas del orden en toda la UE.

Pensar fuera de la caja: Los diplomáticos del Consejo que trabajan en asuntos de interior y seguridad piden un mayor control del proyecto de ley de inteligencia artificial de la UE y su prohibición del reconocimiento facial para las fuerzas del orden en lugares públicos. De hecho, algunos abogan por que las aplicaciones de la IA para el cumplimiento de la ley se separen del proyecto de ley sobre IA y se aborden en una ley aparte. Según un documento obtenido por Laura Kayali de POLITICO, los diplomáticos quieren evaluar si las «diferencias entre los sectores público y privado justifican un marco regulador separado para el uso de sistemas de IA por parte de las fuerzas del orden». Sin duda molestos, los diplomáticos también cuestionaron por qué la IA utilizada por las fuerzas del orden se califica de «alto riesgo», pero los mismos usos por parte del sector privado no. Los activistas de los derechos también cuestionan la misma lógica, pero quieren que las mismas normas se apliquen también a las empresas privadas, a diferencia de los diplomáticos de la UE, que quieren las mismas exenciones.

El caos es una escalera: tener un conjunto de normas diferentes para los ciudadanos y para las fuerzas del orden no es una idea totalmente descabellada. Por ejemplo, el estricto régimen de protección de datos del RGPD no se aplica a las fuerzas del orden, que se rigen por la Directiva de Fuerzas del Orden. Suprimir todas las menciones a las fuerzas del orden de la Ley de Inteligencia Artificial haría que el proyecto de ley fuera más aceptable para los capitales preocupados por la seguridad, y sería una oportunidad para ampliar el alcance de la prohibición de la identificación biométrica remota a las empresas privadas. Por supuesto, esta estrategia requeriría que la Comisión Europea, que redacta las leyes de la UE, aceptara empezar a redactar un proyecto de ley separado para las fuerzas del orden. Sin la bendición de la Comisión, la Ley de IA podría fracasar en uno de sus objetivos principales: proteger a los ciudadanos de la vigilancia biométrica masiva llevada a cabo por el Estado.

*** Translated with http://www.DeepL.com/Translator (free version) ***

VigilanciaLos fantasmas de la supremacía blanca en la reforma de la IA

La vigilancia y la recopilación de datos llevan mucho tiempo siendo impulsadas por los colonizadores que se reúnen para decidir cómo se debe controlar a los negros y morenos. Hoy en día, la vigilancia policial es uno de los métodos más violentos de control racial en Estados Unidos, y los esfuerzos por mejorar, perfeccionar y calibrar la vigilancia policial a través de la reforma policial continúan la tradición de experimentación de la supremacía blanca. Este ensayo explora cómo los conceptos reformistas y el lenguaje como «supervisión», «responsabilidad» y «transparencia» han proliferado junto a las tecnologías de vigilancia perjudiciales, contribuyendo a normalizarlas y ampliarlas. Estos conceptos reformistas suelen ser promovidos por organizaciones sin ánimo de lucro financiadas por la industria policial, y se instituyen a través de organismos de supervisión policial, requisitos de transparencia, criterios reguladores y procesos de auditoría. Llamamos a estos conceptos, instituciones y procesos reformistas burocracia de la vigilancia.

Las instituciones reformistas son el lugar en el que la policía y sus críticos de la corriente dominante buscan un terreno común. El reformismo es especialmente peligroso cuando se aplica a prácticas como la actuación policial «basada en datos», ya que refuerza la capacidad del Estado para reivindicar la objetividad de su violencia. Durante una década, la Coalición Stop LAPD Spying ha trabajado para poner fin a las prácticas policiales basadas en datos en Los Ángeles, especialmente los sistemas algorítmicos que extraen datos de vigilancia masiva para seleccionar a personas y lugares con el fin de aumentar la vigilancia. Nuestro trabajo contra estos programas se ha enfrentado no sólo a las agencias policiales que manejan sistemas de datos mortales, sino también a las instituciones reformistas con las que la policía trabaja para sanear su violencia.

Las tecnologías policiales actuales se basan en proyectos históricos de colonización y pacificación europea, así como en métodos anteriores para mantener la esclavitud de los negros y los indígenas. En Estados Unidos, la evolución de la vigilancia policial se remonta a las leyes de linternas, el marcado de la piel y las notificaciones de esclavos fugitivos, como sabemos por el crucial libro de Simone Browne Dark Matters. Por ello, los esfuerzos de la Coalición Stop LAPD Spying para hacer frente a los daños amenazados por la IA no se centran en la privacidad y la equidad -derechos que, para empezar, nunca se concedieron a muchas de nuestras comunidades-, sino que se basan en el avance del anticolonialismo y la liberación negra.

Vemos a las agencias policiales como el Departamento de Policía de Los Ángeles («LAPD») como la vanguardia de la supremacía blanca, que gasta sus miles de millones anuales para ser pionera en nuevas formas de señalar, controlar y dominar a las comunidades negras y marrones. La burocracia de la vigilancia y la reforma han sido cruciales en este proceso. Estos enfoques sugieren que hay una forma correcta de hacer vigilancia, siempre y cuando el daño sea supervisado y estandarizado. Desde esta perspectiva, las innovaciones como los algoritmos policiales se plantean como algo que siempre está en proceso, que requiere más experimentación, refinamiento y supervisión. Por ejemplo, el jefe del Departamento de Policía de Los Ángeles, Michel Moore, ha desviado las críticas a los programas policiales basados en datos afirmando que forman parte de una evolución continua de la labor policial, y citando la necesidad de que el Departamento de Policía de Los Ángeles «experimente» y «pruebe estrategias emergentes»[1].

En lugar de empoderar a las comunidades que son vigiladas, la burocracia de la vigilancia promueve la «experiencia» de tecnólogos, abogados, académicos y otros dispuestos a colaborar con la policía. Estos profesionales con credenciales producen las reformas que el estado utiliza para transformarse y hacer que las tecnologías de vigilancia parezcan necesarias e incluso progresistas. En la misma línea, el Estado recurre a tecnólogos, investigadores, científicos de datos y programadores informáticos para dotar de un barniz científico a las antiguas prácticas de elaboración de perfiles raciales y patrullas racistas. Incluso hemos observado a investigadores y científicos que trabajan para calibrar el número exacto de víctimas de las tecnologías policiales, como si alguna vez pudiera haber un nivel aceptable de daño racial por parte de la policía.

A continuación destacamos ejemplos de colaboración del sector académico y privado con la policía para cuestionar por qué hay tan poco debate en el espacio crítico de la IA sobre el evidente problema ético de que las empresas que se benefician de las tecnologías policiales también financien las críticas académicas de estas mismas tecnologías. El problema comienza con la economía política de la IA, así como con la ética y las ideologías que impulsan la reforma. Como ha instado J. Khadijah Abdurahman, debemos enfrentarnos a «la imparcialidad, la rendición de cuentas, la transparencia y los marcos éticos más amplios que han permitido a los oportunistas construir su marca, ocupando el espacio necesario para abordar las cuestiones fundamentales de la violencia hegemónica de las grandes tecnologías».

Este proceso de facilitar la experimentación de la vigilancia a través de la reforma burocrática lleva años desarrollándose con la policía algorítmica en Los Ángeles. El año pasado, una campaña de organización de la comunidad obligó a la policía de Los Ángeles a poner fin a su uso del software de «vigilancia predictiva» vendido por PredPol, una empresa con ánimo de lucro fundada por profesores de la UCLA. Poco después, un grupo de más de 1.400 matemáticos académicos firmaron una carta en la que criticaban las «consecuencias racistas» de PredPol. El mismo mes en que la policía de Los Ángeles dejó de utilizar PredPol, anunció un marco de vigilancia titulado «Data-

*** Translated with http://www.DeepL.com/Translator (free version) ***

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

De Ámsterdam a Dubai, las ciudades inteligentes prometen un futuro brillante y sostenible. Pensemos en los sistemas de GPS que ponen en verde las luces de las calles para las ambulancias que se acercan y en los sistemas de riego que controlan la calidad del suelo y el clima para conservar el agua.

Sin embargo, la tecnología que hay detrás puede tener serias implicaciones para nuestra privacidad y derechos civiles. En 2016, San Diego desplegó farolas equipadas con cámaras de vigilancia para controlar el tráfico, pero la policía ha utilizado desde entonces sus imágenes durante las investigaciones. En la primavera de 2020, incluso se encendieron en las protestas de Black Lives Matter. El ayuntamiento está estudiando ahora una nueva normativa para regular su uso. 

En 2017, la doctora Ann Cavoukian aceptó trabajar como asesora en un proyecto ahora abandonado, en el que la empresa hermana de Google, Sidewalk Labs, planeaba equipar el paseo marítimo de Toronto con robots para trasladar los residuos a las instalaciones de eliminación, pavimentos calefactados para derretir la nieve y una miríada de formas de recopilar datos para preparar el uso de vehículos autónomos. Dimitió en 2018 por la preocupación de que otras empresas asociadas al proyecto no pudieran garantizar la privacidad.

Cavoukian, que también fue comisionada de información y privacidad de Canadá de 1997 a 2014, pasó a crear la «privacidad por diseño», un marco para incorporar salvaguardias en la tecnología de las ciudades inteligentes en el punto de desarrollo. Se sentó con Coda Story para hablar de cómo podemos crear entornos urbanos modernos con la privacidad incorporada. 

Esta conversación ha sido editada por razones de longitud y claridad. 

Una «catástrofe de vigilancia global»: Canadá no es inmune a la distopía tecnológica de la vigilancia

Las alarmantes revelaciones sobre el uso generalizado y sin escrúpulos de programas espía vendidos por NSO Group, con sede en Israel, para atacar a periodistas, defensores de los derechos humanos, académicos e incluso figuras políticas de alto nivel, han puesto de manifiesto los peligros que entraña para las democracias liberales una industria de la vigilancia mundial en auge y sin control.

El programa espía, denominado Pegasus, se ha relacionado con abusos sistemáticos en todo el mundo, incluidas violaciones de los derechos humanos. Y si piensas que sólo son vulnerables quienes viven bajo regímenes autoritarios, piénsalo de nuevo. Los canadienses no son inmunes a esta distopía tecnológica de la vigilancia.

Aunque las recientes revelaciones han sacado a la luz la enorme escala de los programas de vigilancia que utilizan el programa espía Pegasus, no deberían ser una completa sorpresa. Durante años, las organizaciones de la sociedad civil en Canadá y en el extranjero han destacado las actividades de Pegasus y del NSO Group en general como el software que se utiliza para rastrear a los defensores de los derechos humanos.

Pero, ¿comprende el canadiense medio lo preocupante que es la difusión de la tecnología de vigilancia y lo vulnerable que es todo el mundo? De hecho, destacados expertos en política y derechos humanos digitales señalan la inminencia de una «catástrofe mundial de la vigilancia».

Como demuestran las recientes investigaciones de Amnesty Tech y otras organizaciones de la sociedad civil, la industria de la vigilancia sigue expandiéndose a nivel mundial, mientras que cada vez más países -y no solo los regímenes autoritarios- adoptan las herramientas de vigilancia en nombre de la seguridad nacional y la protección. En 2019, al menos 75 países utilizaban la vigilancia habilitada por la inteligencia artificial.

¿Una historia de vigilancia? Pasado, presente, predicción

https://www.degruyter.com/document/doi/10.1515/sats-2020-0021/html

En este ensayo, exploraré las interrelaciones y diferencias entre la tecnología humana y la digital a través de la lente de la vigilancia y el modelo de predicción: la construcción de perfiles. Aportaré algunas consideraciones filosóficas sobre la vigilancia y las prácticas de vigilancia, especialmente a la luz de la informatización y la digitalización, incluyendo algunas consideraciones epistemológicas con respecto a los supuestos subyacentes en la construcción algorítmica de perfiles e identidades humanas. El punto de partida son los encuentros accidentales con una misma persona en las calles de Copenhague.

El auge de la maquinaria de vigilancia estatal de China

Irfan era un trabajador tecnológico de unos 30 años que procedía de Urumqi, la capital regional de Xinjjiang y centro comercial del norte de Xinjiang, donde ejecutó proyectos de vigilancia masiva hasta que dejó su trabajo en 2015. Huyó de Xinjiang en 2018 y se instaló en Turquía.

Al principio, Irfan había tenido problemas para encontrar trabajo en la pobre región de Urumqi. Muchos de los mejores puestos de trabajo iban a parar a inmigrantes chinos han que dejaban de lado a los uigures locales.

«Pero tenía un amigo que tenía acceso al alcalde de Urumqi», explicó Irfan. «Me hizo una llamada. Y entonces la empresa de telecomunicaciones se puso en contacto conmigo en 2007 con una oferta. Necesitaban un director de informática que ayudara a crear uno de los primeros sistemas de vigilancia de la zona».

En su nuevo trabajo, Irfan tuvo acceso a dos lugares clave: la oficina local de seguridad pública, donde ayudó a gestionar la red de vigilancia de la empresa, y la propia red de la compañía de telecomunicaciones.

VIDEO DE LIT HUB:

Lit Hub x Wine Access: Victoria James

«Nuestro mandato era recorrer la ciudad y colocar cámaras en todos los lugares que pudiéramos. Mis supervisores decían que el gobierno quería que lucháramos contra la delincuencia. Lo acepté. Pensé que era una misión honorable».

Con un pequeño equipo, Irfan buscó en las esquinas, los callejones, las calles en las que los coches solían ir a gran velocidad y los bolsillos conocidos por los robos y los hurtos de carteras, según los datos municipales. A continuación, su equipo conectaba las cámaras a los cables ópticos que se dirigían a los edificios de seguridad pública, donde los agentes de policía vigilaban la ciudad desde una sala de control.

Después de instalar lo último de lo que rápidamente se convirtió en una vasta red de cámaras, Irfan volvía a su sala de control en un anodino edificio de hormigón, donde él y otros trabajadores de tecnología de la información se sentaban frente a grandes pantallas de vídeo montadas en la pared.

A lo largo de 2010 y 2011, Irfan y sus colegas fueron tomando conciencia de cómo podían entrenar algoritmos de IA para reconocer rostros y comportamientos, cotejarlos con una base de datos nacional de ciudadanos y ayudar a la policía a encontrar a los autores.

«Teníamos el hardware, teníamos las cámaras, teníamos casi todo lo que necesitábamos para que esto funcionara», dijo. «Pero nos dimos cuenta de que nos faltaba el ingrediente clave: necesitábamos más datos.

«De lo contrario, la tecnología de reconocimiento facial era inútil. La inteligencia artificial necesitaba datos, ya sea en forma de imágenes faciales, redes sociales, antecedentes penales, tarjetas de crédito o cualquier otro dato resultante de algún tipo de actividad o transacción. Entonces, el sistema podría revisar toda la información que le proporcionáramos y encontrar correlaciones que los humanos no podrían, en una fracción de tiempo».

«¿Por qué había tan pocos datos?» le pregunté.

«Por el secreto de Estado», respondió Irfan. «El gobierno no tenía buena información sobre su propio país y su gente. Y por eso no teníamos los datos de calidad que necesitábamos para alimentar el software de IA. Sin una buena base de datos sobre todos nuestros ciudadanos, no podíamos cotejar los rostros de las personas o los antecedentes penales con tanta facilidad. No podíamos utilizar la IA para atrapar a los delincuentes. Era un sistema terrible».

El equipo de Irfan buscó datos en otras oficinas de la empresa y en el gobierno. No encontraron nada. «La solución no vino del gobierno», confirmó Irfan. «Vino de las empresas».

*** Translated with http://www.DeepL.com/Translator (free version) ***