Diseña un sitio como este con WordPress.com
Comenzar

CÓMO SE PUEDEN UTILIZAR LOS DATOS CONTRA LAS PERSONAS: UNA CLASIFICACIÓN DE LOS USOS INDEBIDOS DE LOS DATOS PERSONALES

Incluso después de décadas de intensa investigación y debates públicos, el tema de la privacidad de los datos sigue rodeado de confusión y desinformación. Mucha gente todavía tiene dificultades para comprender la importancia de la privacidad, que tiene consecuencias de gran alcance para las normas sociales, la jurisprudencia y la legislación. Los debates sobre el uso indebido de los datos personales suelen girar en torno a unos pocos temas de conversación populares, como la publicidad dirigida o la vigilancia gubernamental, lo que conduce a una visión demasiado limitada del problema. La literatura en este campo tiende a centrarse en aspectos específicos, como las amenazas a la privacidad que plantean los «grandes datos», pasando por alto muchos otros posibles daños. Para ayudar a ampliar la perspectiva, este artículo propone una novedosa clasificación de las formas en que los datos personales pueden ser utilizados contra las personas, ilustrada profusamente con ejemplos del mundo real. Además de ofrecer una terminología para debatir el amplio espectro del mal uso de los datos personales en la investigación y el discurso público, nuestra clasificación proporciona una base para la educación de los consumidores y las evaluaciones del impacto sobre la privacidad, ayudando a arrojar luz sobre los riesgos que conlleva la divulgación de datos personales.

Anuncio publicitario

Más allá del individuo: gobernar el daño social de la IA

https://policyreview.info/articles/analysis/beyond-individual-governing-ais-societal-harm

En este artículo, distingo tres tipos de daños que pueden surgir en el contexto de la inteligencia artificial (IA): daños individuales, daños colectivos y daños sociales. El daño social suele pasarse por alto, pero no es reducible a los dos primeros tipos de daño. Además, los mecanismos para hacer frente a los daños individuales y colectivos provocados por la IA no siempre son adecuados para contrarrestar los daños sociales. En consecuencia, el análisis de las lagunas del marco jurídico actual de la IA por parte de los responsables políticos no sólo corre el riesgo de ser incompleto, sino que las propuestas de nueva legislación para colmar estas lagunas también pueden proteger inadecuadamente los intereses de la sociedad que se ven perjudicados por la IA. Al conceptualizar el daño social de la IA, sostengo que es necesario un cambio de perspectiva más allá del individuo, hacia un enfoque regulador de la IA que aborde sus efectos en la sociedad en general. Basándome en un ámbito jurídico destinado específicamente a proteger un interés social -el derecho medioambiental-, identifico tres mecanismos «sociales» que los responsables políticos de la UE deberían tener en cuenta en el contexto de la IA. Se trata de (1) mecanismos de supervisión pública para aumentar la responsabilidad, incluidas las evaluaciones de impacto obligatorias con la oportunidad de proporcionar información a la sociedad; (2) mecanismos de supervisión pública para garantizar la recopilación y difusión de información independiente sobre el impacto social de la IA; y (3) la introducción de derechos procesales con una dimensión social, incluido el derecho de acceso a la información, el acceso a la justicia y la participación en la toma de decisiones públicas sobre la IA, independientemente de la demostración del daño individual. Por último, considero en qué medida la nueva propuesta de reglamento sobre IA de la Comisión Europea tiene en cuenta estos mecanismos, antes de ofrecer unas observaciones finales.

*** Translated with http://www.DeepL.com/Translator (free version) ***