La RCMP quiere utilizar la IA para aprender contraseñas en las investigaciones, pero los expertos advierten de los riesgos para la privacidad

https://www.theglobeandmail.com/business/article-rcmps-plan-to-use-ai-to-learn-passwords-in-investigations-has-privacy/

La Policía Montada de Canadá quiere utilizar tecnología de inteligencia artificial para obtener contraseñas y así poder descifrar los datos incautados durante las investigaciones criminales, lo que ha llevado a expertos en ciberseguridad y libertades civiles a advertir que la tecnología podría poner en riesgo los derechos de privacidad de los canadienses.

En Canadá, la policía no puede obligar a las personas a revelar sus contraseñas. Esta semana, la policía ha declarado que está buscando posibles socios para construir un sistema basado en la inteligencia artificial que «ingeriría el material incautado durante una investigación» para averiguar las contraseñas de los datos cifrados.

Las fuerzas del orden suelen decir que el uso delictivo de la encriptación para ocultar actividades es un problema creciente a medida que se dispone de tecnología más sofisticada.

Pero los tribunales han reconocido que los dispositivos personales requieren mayores expectativas de privacidad «precisamente porque vivimos nuestra vida en estos dispositivos», dijo Brenda McPhail, directora del programa de privacidad, tecnología y vigilancia de la Asociación Canadiense de Libertades Civiles.

Obligar a la gente a descifrar los dispositivos sería inconstitucional, dijo, y añadió que el uso de la tecnología para hacerlo equivaldría a una solución con importantes implicaciones en los derechos de privacidad. La tecnología de escaneo que busca la RCMP podría examinar el contenido de estos dispositivos tan profundamente que una fuerza policial podría obtener «un conocimiento de quiénes somos y qué hacemos». Así que la invasión de la privacidad es clarísima», dijo el Dr. McPhail.

La tecnología de descifrado que busca la RCMP podría no entrar en la directiva de Ottawa sobre la toma de decisiones automatizada, que exige a los departamentos federales que evalúen el riesgo de utilizar tecnología como los modelos predictivos y la inteligencia artificial.

Yuan Stevens, responsable de políticas del programa de tecnología, ciberseguridad y democracia de la Universidad de Ryerson, dijo que el sistema propuesto por la RCMP podría estar exento porque proporciona un servicio interno para el gobierno, no uno externo.

El Comisionado Federal de Privacidad descubrió a principios de este año que el Departamento de Defensa Nacional eludió las normas de evaluación de riesgos en una campaña de contratación de diversidad. «Hay un patrón de agencias que quieren utilizar la IA y no quieren estar sujetas a la supervisión, y eso podría ser problemático», dijo Stevens.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Crea tu sitio web con WordPress.com
Comenzar
A %d blogueros les gusta esto: