Un «agujero negro» de datos: La Europol recibe la orden de eliminar un enorme almacén de datos personales

https://www.theguardian.com/world/2022/jan/10/a-data-black-hole-europol-ordered-to-delete-vast-store-of-personal-data

La agencia policial de la UE, Europol, se verá obligada a eliminar gran parte de un vasto almacén de datos personales que, según el organismo de control de la protección de datos del bloque, ha acumulado ilegalmente. La conclusión sin precedentes del Supervisor Europeo de Protección de Datos (SEPD) se refiere a lo que los expertos en privacidad denominan un «arca de grandes datos» que contiene miles de millones de puntos de información. Los datos sensibles del arca se han extraído de informes sobre delitos, se han pirateado de servicios telefónicos encriptados y se han tomado muestras de solicitantes de asilo nunca implicados en ningún delito.

Según documentos internos vistos por The Guardian, la caché de Europol contiene al menos 4 petabytes, lo que equivale a 3 millones de CD-Roms o a una quinta parte de todo el contenido de la Biblioteca del Congreso de Estados Unidos. Los defensores de la protección de datos afirman que el volumen de información que contienen los sistemas de Europol equivale a una vigilancia masiva y es un paso más en su camino para convertirse en un homólogo europeo de la Agencia de Seguridad Nacional (NSA) de Estados Unidos, la organización cuyo espionaje clandestino en línea fue revelado por el denunciante Edward Snowden.

Entre los cuatrillones de bytes almacenados se encuentran datos sensibles de al menos un cuarto de millón de sospechosos de terrorismo y delitos graves, actuales o pasados, y de una multitud de personas con las que estuvieron en contacto. Se han acumulado a partir de las autoridades policiales nacionales durante los últimos seis años, en una serie de volcados de datos procedentes de un número desconocido de investigaciones criminales.

El organismo de control ordenó a Europol que borrara los datos conservados durante más de seis meses y le dio un año de plazo para resolver lo que podía conservarse legalmente.

El enfrentamiento enfrenta al organismo de control de la protección de datos de la UE con una poderosa agencia de seguridad que se está preparando para convertirse en el centro del aprendizaje automático y la inteligencia artificial en el ámbito policial.

La sentencia también pone de manifiesto las profundas divisiones políticas entre los responsables de la toma de decisiones en Europa sobre las compensaciones entre seguridad y privacidad. El resultado final de su enfrentamiento tiene implicaciones para el futuro de la privacidad en Europa y más allá.

La comisaria europea de Interior, Ylva Johansson.

La Comisaria Europea de Asuntos de Interior, Ylva Johansson, ha argumentado que Europol apoya a las autoridades policiales nacionales en la «hercúlea tarea» de analizar los datos transmitidos legalmente. Fotografía: Agencia Anadolu/Getty Images

La Comisaria de Asuntos de Interior de la UE, Ylva Johansson, pareció defender a Europol. «Las autoridades policiales y judiciales necesitan las herramientas, los recursos y el tiempo para analizar los datos que se les transmiten legalmente», dijo. «En Europa, Europol es la plataforma que apoya a las autoridades policiales nacionales en esta hercúlea tarea».

*** Translated with http://www.DeepL.com/Translator (free version) ***

Conjuntos de datos multimodales: misoginia, pornografía y estereotipos malignos

https://arxiv.org/abs/2110.01963

Hemos entrado en la era de los modelos de aprendizaje automático de un billón de parámetros entrenados en conjuntos de datos de mil millones de tamaño extraídos de Internet. El aumento de estos conjuntos de datos gigantescos ha dado lugar a un formidable conjunto de trabajos críticos que han pedido precaución al generar estos grandes conjuntos de datos. En ellos se aborda la preocupación por las dudosas prácticas de curación utilizadas para generar estos conjuntos de datos, la sórdida calidad de los datos de texto alternativo disponibles en la red mundial, el problemático contenido del conjunto de datos CommonCrawl, utilizado a menudo como fuente para el entrenamiento de grandes modelos lingüísticos, y los arraigados sesgos de los modelos visolingüísticos a gran escala (como el modelo CLIP de OpenAI) entrenados en conjuntos de datos opacos (WebImageText). Con el telón de fondo de estas llamadas de atención específicas, examinamos el conjunto de datos LAION-400M, recientemente publicado, que es un conjunto de datos filtrado por CLIP de pares Imagen-Alt-Texto analizados a partir del conjunto de datos Common-Crawl. Descubrimos que el conjunto de datos contiene pares de imágenes y textos problemáticos y explícitos de violación, pornografía, estereotipos malignos, insultos racistas y étnicos, y otros contenidos extremadamente problemáticos. En este trabajo se exponen numerosas implicaciones, preocupaciones y daños derivados del estado actual de los conjuntos de datos a gran escala, al tiempo que se plantean cuestiones abiertas para diversas partes interesadas, como la comunidad de la IA, los reguladores, los responsables políticos y los sujetos de los datos.

La eliminación de conjuntos de datos poco éticos no es suficiente

https://www-technologyreview-com.cdn.ampproject.org/c/s/www.technologyreview.com/2021/08/13/1031836/ai-ethics-responsible-data-stewardship/amp/

En 2016, con la esperanza de estimular los avances en el reconocimiento facial, Microsoft publicó la mayor base de datos de rostros del mundo. Llamada MS-Celeb-1M, contenía 10 millones de imágenes de 100.000 rostros de famosos. Sin embargo, la definición de «famoso» era poco precisa.

Tres años después, los investigadores Adam Harvey y Jules LaPlace revisaron el conjunto de datos y encontraron a muchas personas corrientes, como periodistas, artistas, activistas y académicos, que mantienen una presencia en Internet por su vida profesional. Ninguno había dado su consentimiento para ser incluido y, sin embargo, sus rostros se habían colado en la base de datos y fuera de ella; la investigación con la recopilación de rostros fue realizada por empresas como Facebook, IBM, Baidu y SenseTime, uno de los mayores gigantes del reconocimiento facial en China, que vende su tecnología a la policía china.

Poco después de la investigación de Harvey y LaPlace, y tras recibir críticas de los periodistas, Microsoft retiró el conjunto de datos, declarando simplemente: «El reto de la investigación ha terminado». Pero la preocupación por la privacidad que generó persiste en una tierra de Internet para siempre. Y este caso no es el único.

El raspado de la web en busca de imágenes y texto se consideraba antes una estrategia inventiva para recopilar datos del mundo real. Ahora, leyes como el GDPR (reglamento europeo de protección de datos) y la creciente preocupación pública por la privacidad de los datos y la vigilancia han convertido esta práctica en algo legalmente arriesgado e indecoroso. Como resultado, los investigadores de IA se han retractado cada vez más de los conjuntos de datos que crearon de esta manera.

Pero un nuevo estudio muestra que esto no ha servido para evitar que los datos problemáticos proliferen y se utilicen. Los autores seleccionaron tres de los conjuntos de datos más citados que contienen rostros o personas, dos de los cuales habían sido retirados; rastrearon las formas en que cada uno había sido copiado, utilizado y reutilizado en cerca de 1.000 artículos.

En el caso de MS-Celeb-1M, todavía existen copias en sitios de terceros y en conjuntos de datos derivados construidos sobre el original. Los modelos de código abierto preentrenados con los datos también están disponibles. El conjunto de datos y sus derivados también fueron citados en cientos de artículos publicados entre seis y 18 meses después de la retracción.

DukeMTMC, un conjunto de datos que contenía imágenes de personas caminando por el campus de la Universidad de Duke y que fue retirado el mismo mes que MS-Celeb-1M, persiste igualmente en conjuntos de datos derivados y en cientos de citas de artículos.

La lista de lugares en los que persisten los datos es «más amplia de lo que habíamos pensado inicialmente», afirma Kenny Peng, estudiante de segundo año de Princeton y coautor del estudio. E incluso eso, dice, es probablemente una subestimación, porque las citas en los artículos de investigación no siempre tienen en cuenta las formas en que los datos pueden ser utilizados comercialmente.

Un poco de locura

Parte del problema, según el documento de Princeton, es que quienes elaboran conjuntos de datos pierden rápidamente el control de sus creaciones.

Los conjuntos de datos que se publican con un propósito pueden ser rápidamente cooptados para otros que nunca fueron pensados o imaginados por los creadores originales. MS-Celeb-1M, por ejemplo, estaba destinado a mejorar el reconocimiento facial de los famosos, pero desde entonces se ha utilizado para el reconocimiento facial más general y el análisis de rasgos faciales, según los autores. También se ha reetiquetado o reprocesado en conjuntos de datos derivados como Racial Faces in the Wild, que agrupa sus imágenes por raza, abriendo la puerta a aplicaciones controvertidas.

*** Translated with http://www.DeepL.com/Translator (free version) ***

En la intersección de la IA y la ley de protección de datos: Reglas de toma de decisiones automatizadas, una perspectiva global (CPDP LatAm Panel)

El jueves 15 de julio de 2021, el Foro del Futuro de la Privacidad (FPF) organizó durante la Conferencia CPDP LatAm un panel titulado «En la intersección de la IA y la ley de protección de datos: Normas de toma de decisiones automatizadas, una perspectiva global». El objetivo del panel era explorar cómo se aplican las leyes de protección de datos existentes en todo el mundo a las prácticas de elaboración de perfiles y toma de decisiones automatizadas. A la luz de la reciente propuesta de Reglamento sobre IA de la Comisión Europea, es importante explorar la forma y el grado en que las leyes existentes ya protegen los derechos y libertades fundamentales de las personas contra las actividades de procesamiento automatizado impulsadas por las tecnologías de IA. 

El panel estuvo compuesto por Katerina Demetzou, Policy Fellow for Global Privacy en el Future of Privacy Forum; Simon Hania, Senior Director y Data Protection Officer en Uber; Prof. Laura Schertel Mendes, Profesora de Derecho en la Universidad de Brasilia y Eduardo Bertoni, Representante de la Oficina Regional para América del Sur, Instituto Interamericano de Derechos Humanos. El panel de discusión fue moderado por la Dra. Gabriela Zanfir-Fortuna, Directora de Privacidad Global del Foro del Futuro de la Privacidad.

Las leyes de protección de datos se aplican a las prácticas de ADM a la luz de disposiciones específicas y/o de su amplio alcance material

Para iniciar la conversación, se presentaron los resultados preliminares de un proyecto en curso dirigido por el Equipo de Privacidad Global del FPF sobre la Toma de Decisiones Automatizada (ADM) en todo el mundo. Se presentaron siete jurisdicciones de forma comparativa, entre las cuales cinco ya tienen una ley general de protección de datos en vigor (UE, Brasil, Japón, Corea del Sur, Sudáfrica), mientras que dos jurisdicciones tienen proyectos de ley de protección de datos que se espera que se conviertan en leyes en 2021 (China e India).

A efectos de este análisis, se examinan las siguientes disposiciones: las definiciones de «operación de tratamiento» y «datos personales», dado que son dos conceptos esenciales para definir el ámbito material de la ley de protección de datos; los principios de equidad y transparencia y las obligaciones y derechos legales que se relacionan con estos dos principios (por ejemplo, el derecho de acceso, el derecho a una explicación, el derecho a una información significativa, etc.); las disposiciones que se refieren específicamente a la ADM y a la elaboración de perfiles (por ejemplo, el artículo 22 del GDPR).

*** Translated with http://www.DeepL.com/Translator (free version) ***

Los conjuntos de datos de IA son propensos a la mala gestión, según un estudio

https://venturebeat.com/2021/08/11/ai-datasets-are-prone-to-mismanagement-study-finds/

Los conjuntos de datos públicos, como el DukeMTMC de la Universidad de Duke, se utilizan a menudo para entrenar, probar y afinar los algoritmos de aprendizaje automático que llegan a la producción, a veces con resultados controvertidos. Es un secreto a voces que los sesgos en estos conjuntos de datos pueden afectar negativamente a las predicciones realizadas por un algoritmo, por ejemplo, haciendo que un sistema de reconocimiento facial identifique erróneamente a una persona. Sin embargo, un estudio reciente, del que son coautores investigadores de Princeton, revela que los conjuntos de datos de visión por ordenador, en particular los que contienen imágenes de personas, presentan una serie de problemas éticos.

En general, la comunidad del aprendizaje automático reconoce ahora que mitigar los daños asociados a los conjuntos de datos es un objetivo importante. Pero estos esfuerzos podrían ser más eficaces si se basaran en la comprensión de cómo se utilizan los conjuntos de datos en la práctica, afirman los coautores del informe. Su estudio analizó casi 1.000 artículos de investigación que citan tres conjuntos de datos destacados -DukeMTMC, Labeled Faces in the Wild (LFW) y MS-Celeb-1M- y sus conjuntos de datos derivados, así como los modelos entrenados con los conjuntos de datos. La conclusión más importante es que la creación de derivados y modelos y la falta de claridad en cuanto a la concesión de licencias introducen importantes problemas éticos.

La pandemia de COVID-19 y la brecha de confianza tecnológica

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3874152

La industria y el gobierno intentaron utilizar las tecnologías de la información para responder a la pandemia de COVID-19, pero el uso de Internet como herramienta para la vigilancia de la enfermedad, los mensajes de salud pública y la logística de las pruebas resultó ser una decepción. ¿Por qué no fueron más eficaces estos esfuerzos? Este ensayo sostiene que los esfuerzos de la industria y el gobierno para aprovechar la tecnología estaban condenados al fracaso porque las plataformas tecnológicas han fracasado en las últimas décadas a la hora de hacer que sus herramientas sean dignas de confianza, y los legisladores han hecho poco para hacer que estas empresas rindan cuentas. Las personas no pueden confiar en las interfaces con las que interactúan, en los dispositivos que utilizan y en los sistemas que alimentan los servicios de las empresas tecnológicas.

Este ensayo explora estos males preexistentes de la privacidad que han contribuido a estos problemas, como las interfaces de usuario manipuladoras, los regímenes de consentimiento que cargan a las personas con todos los riesgos del uso de la tecnología y los dispositivos que recogen muchos más datos de los que deberían. Una respuesta a una pandemia es tan buena como su adopción, pero las preocupaciones preexistentes sobre la privacidad y la tecnología dificultan que las personas que buscan salvavidas confíen en las tecnologías diseñadas para protegerlas. Sostenemos que una buena manera de ayudar a cerrar la brecha de confianza en la tecnología es a través de los deberes relacionales de lealtad y cuidado, mejores marcos que regulen el diseño de las tecnologías de la información, y normas sustantivas que limiten la recopilación y el uso de datos en lugar de normas de procedimiento de «consentimiento y control». Concluimos que la pandemia podría ser una oportunidad para aprovechar la motivación de los legisladores para mejorar nuestros marcos de privacidad y hacer que las tecnologías de la información sean dignas de nuestra confianza.

*** Translated with http://www.DeepL.com/Translator (free version) ***

La inevitable utilización de los datos de las aplicaciones ya está aquí

https://www.vice.com/en/article/pkbxp8/grindr-location-data-priest-weaponization-app

Finalmente ocurrió. Tras años de advertencias por parte de investigadores, periodistas e incluso gobiernos, alguien utilizó datos de localización altamente sensibles de una aplicación de smartphone para rastrear y acosar públicamente a una persona concreta. En este caso, la publicación católica The Pillar dijo que utilizó los datos de localización vinculados a Grindr para rastrear los movimientos de un sacerdote, y luego lo reveló públicamente como potencialmente gay sin su consentimiento. El Washington Post informó el martes de que la revelación llevó a su dimisión.

PUBLICIDAD

La noticia demuestra con crudeza no sólo el poder inherente de los datos de localización, sino también cómo la posibilidad de ejercer ese poder se ha extendido desde las empresas y las agencias de inteligencia hasta prácticamente cualquier tipo de individuo descontento, sin escrúpulos o peligroso. Un mercado creciente de intermediarios de datos que recopilan y venden datos de innumerables aplicaciones ha hecho que cualquiera con un poco de dinero y esfuerzo pueda averiguar qué teléfono de un supuesto conjunto de datos anónimos pertenece a un objetivo, y abusar de esa información.

«Los expertos han advertido durante años que los datos recogidos por las empresas de publicidad de los teléfonos de los estadounidenses podrían utilizarse para rastrearlos y revelar los detalles más personales de sus vidas. Desgraciadamente, tenían razón», dijo el senador Ron Wyden en un comunicado a Motherboard, en respuesta al incidente. «Los corredores de datos y las empresas de publicidad han mentido al público, asegurándoles que la información que recogían era anónima. Como demuestra este terrible episodio, esas afirmaciones eran falsas: las personas pueden ser rastreadas e identificadas».

En resumen, The Pillar dice que monseñor Jeffrey Burrill, que fue secretario general de la Conferencia Episcopal de Estados Unidos (USCCB) antes de su dimisión, visitó bares gay y otros lugares mientras usaba la aplicación de citas gay Grindr.

«Un análisis de las señales de datos de la app correlacionadas con el dispositivo móvil de Burrill muestra que el sacerdote también visitó bares gay y residencias privadas mientras usaba una app de ligue basada en la ubicación en numerosas ciudades desde 2018 hasta 2020, incluso mientras viajaba en misión para la conferencia episcopal de Estados Unidos», escribió el medio. The Pillar dice que los datos de localización son «registros comercialmente disponibles de los datos de la señal de la app», y que obtuvo los registros de «un proveedor de datos» y luego los autenticó con una consultora de datos.

¿Conoces algún otro abuso de los datos de localización? Nos encantaría que nos lo contaras. Con un teléfono u ordenador que no sea de trabajo, puedes ponerte en contacto con Joseph Cox de forma segura en Signal en el número +44 20 8133 5190, en Wickr en josephcox, o en el correo electrónico joseph.cox@vice.com.

Los datos en sí no contenían el nombre real de cada usuario de teléfono móvil, pero The Pillar y su socio pudieron determinar qué dispositivo pertenecía a Burill al observar uno que aparecía en la residencia del personal de la USCCB y en su sede, en los lugares de reunión en los que estuvo, así como en la casa del lago de su familia y en un apartamento en el que figura como residente. En otras palabras, consiguieron, como los expertos han dicho desde hace tiempo que es fácil de hacer, desenmascarar a esta persona concreta y sus movimientos a lo largo del tiempo a partir de un conjunto de datos supuestamente anónimos.

Un portavoz de Grindr dijo a Motherboard en una declaración enviada por correo electrónico que «la respuesta de Grindr está en consonancia con la historia editorial publicada por el Washington Post que describe la entrada original del blog de The Pillar como homofóbica y llena de insinuaciones sin fundamento». Las supuestas actividades enumeradas en esa entrada de blog no atribuida son inviables desde un punto de vista técnico y es increíblemente improbable que ocurran. No hay absolutamente ninguna prueba que apoye las alegaciones de recopilación o uso indebido de datos relacionados con la aplicación Grindr como se pretende.»

*** Translated with http://www.DeepL.com/Translator (free version) ***

La red de arrastre de datos de Amazon

https://www.techtransparencyproject.org/articles/amazons-data-dragnet

Amazon se está expandiendo a todos los rincones de la vida de las personas con su creciente lista de productos y servicios. Eso le está permitiendo recopilar muchos más datos sobre sus usuarios de lo que mucha gente cree.

Facebook, Google y Twitter se han enfrentado a duras preguntas sobre los datos que recogen de sus usuarios y lo que hacen con esa información. Sin embargo, a menudo se pierde en esta justificada alarma sobre la privacidad en línea, una plataforma que sabe una cantidad asombrosa sobre la vida doméstica de sus clientes, sus hábitos de gasto e incluso su salud física: Amazon.

La amplia oferta de Amazon -que incluye tiendas online y físicas, una farmacia en Internet, servicios de streaming, altavoces inteligentes, cámaras de seguridad, aplicaciones móviles y una red de publicidad digital- ha ayudado a la empresa a expandirse en casi todos los aspectos de la vida de las personas. La pandemia de coronavirus en curso, por su parte, ha aumentado las oportunidades de recopilación de datos de Amazon, ya que cada vez hay más consumidores que compran en línea y trabajan y estudian en casa, lo que permite a los altavoces inteligentes de Amazon espiar a los usuarios en cuarentena.

Todas estas interacciones suponen una cantidad alucinante de datos de usuarios para Amazon, y plantean preguntas sobre los planes de la empresa para esta información personal, a menudo muy sensible. Dado que Amazon está recopilando cada vez más información sobre los consumidores y su comportamiento, el Proyecto de Transparencia Tecnológica (TTP) llevó a cabo una revisión de las políticas de privacidad de la empresa, las solicitudes de patentes y otra información de código abierto para evaluar el alcance total de sus capacidades de vigilancia. Los resultados muestran que Amazon recopila muchos más datos sobre sus usuarios de lo que mucha gente cree.

Traducción realizada con la versión gratuita del traductor http://www.DeepL.com/Translator

Todo el mundo debería decidir cómo se utilizan sus datos digitales, no sólo las empresas tecnológicas

https://www.nature.com/articles/d41586-021-01812-3

Hace unas décadas, si un investigador quería saber cómo afectaba el mal tiempo a los desplazamientos al trabajo -los medios de transporte que utiliza la gente, las rutas que toma, las horas en que viaja- podría haber encuestado a cientos de personas y contado los coches, autobuses y bicicletas en los principales cruces.

Hoy en día es posible acceder a datos sobre los desplazamientos de millones de personas, tomados de rastreadores de localización en teléfonos o vehículos, a veces en tiempo real. Estos datos pueden combinarse con los análisis de las vacunas COVID-19 para investigar los efectos de los viajeros que regresan a la oficina. Y los datos meteorológicos pueden incorporarse para determinar si ahora hay más gente que trabaja desde casa cuando llueve mucho que hace unos años.

En teoría. La realidad suele estar muy lejos de esta visión de color de rosa.

La mayoría de los datos de los que disponen -o que buscan- los científicos sociales computacionales hoy en día se generan para responder a preguntas que no tienen nada que ver con su investigación. Los datos llevan la marca de su propósito original, ya sea la publicidad dirigida o las primas de seguros personalizadas. Estos datos pueden reutilizarse con cautela para responder a otras preguntas -los rastreadores de fitness portátiles podrían servir de base para los estudios sobre la obesidad, por ejemplo-, pero suelen quedar lagunas cruciales. En consecuencia, los científicos suelen recurrir a soluciones provisionales para sacar provecho de lo que pueden obtener1.

Convertir la desconfianza en el intercambio de datos en «participar, deliberar, decidir»

https://www.adalovelaceinstitute.org/blog/distrust-data-sharing-engage-deliberate-decide/

La decisión de NHS Digital de retrasar la fecha límite para que los pacientes opten por no participar en el esquema de datos de GP para la planificación y la investigación (GPDPR), un esquema que permite que los registros de médicos de cabecera de los pacientes se extraigan y compartan en un repositorio central de NHS Digital, ha revitalizado la sociedad debate sobre el intercambio de registros de pacientes con fines más allá de la atención individual y la gobernanza de los datos de los pacientes (quién accedería a los registros de pacientes y con qué fines).

Existe una considerable discusión en el dominio público sobre la situación actual. El apoyo a los objetivos de GPDPR, destinado a responder a los desafíos de la recopilación y vinculación de datos durante la pandemia y a respaldar la investigación que beneficia a los pacientes, se combina con la sospecha de que los datos podrían ser mal utilizados, particularmente en manos de organizaciones comerciales de terceros. . La discusión pública es importante y, respaldada con evidencia y hechos, aumentará la claridad y reducirá la confusión. Esta pieza está destinada a aclarar algunos puntos clave y permitir una mejor participación social con GPDPR.

El GPDPR es una propuesta para obligar legalmente a los médicos de cabecera a depositar todos los registros de sus pacientes en una tienda central mantenida por NHS Digital. Esto permitiría a NHS Digital compartir esos registros con fines distintos a la atención del paciente, por lo que cuestiona la gobernanza de los datos de los pacientes, especialmente en lo que se refiere al intercambio de datos con terceros con fines comerciales y de investigación.

Las similitudes con la propuesta de 2013 NHS England Care.Data (2013) son sorprendentes. Propuesto para ‘vincular información de diferentes proveedores del NHS para brindar a los comisionados de atención médica una imagen más completa de cuán seguros son los servicios locales y qué tan bien tratan y cuidan a los pacientes en la comunidad, los médicos de cabecera y los entornos hospitalarios’, Care.Data pasó por un ciclo de descontento y ‘techlash’. Las críticas de que la propuesta se anunció con una consulta limitada generó una preocupación generalizada entre los profesionales, la sociedad civil y el público, lo que llevó a que los planes se desecharan en 2016.

Mucho ha cambiado desde 2013. Desde Cambridge Analytica hasta la asociación pública privada de DeepMind con Royal Free Trust del NHS, que viola las pautas de la Oficina del Comisionado de Información y la introducción del Reglamento General de Protección de Datos de la UE (GDPR), la conciencia pública sobre cómo se almacenan los datos. utilizado ha aumentado, al igual que la creciente dataficación ha amplificado los desequilibrios de poder que existen en torno al uso de datos.

La respuesta pública a la propuesta de GPDPR muestra que todavía hay mucho que aprender sobre la gobernanza de los acuerdos de datos de terceros y la participación del público en un debate significativo para que puedan ayudar a dar forma a las decisiones antes de que se tomen.

Nuestros cinco mensajes son:

Los hechos son importantes para las personas: es importante que los hechos sean correctos y asumir la responsabilidad colectiva de comunicarlos con claridad.

GPDPR y Care.Data son casos de uso que revelan cómo los enfoques de «decidir, anunciar y defender» para la toma de decisiones pueden socavar los usos confiables de los datos.

Primero se debe demostrar la confiabilidad, y luego la confianza y el apoyo.

La buena comunicación y la transparencia deben ir acompañadas de un enfoque deliberativo más abierto para involucrar al público en las decisiones de mayor importancia.

Una buena participación pública debe ir más allá de informar a las personas y permitir que los pacientes y las personas den forma a las decisiones sobre sus datos.

Crea tu sitio web con WordPress.com
Comenzar