Nuestros derechos digitales (mal representados)

https://www.cigionline.org/articles/our-misrepresented-digital-rights/

La semana pasada, Google recibió, con razón, cobertura y críticas por lanzar una aplicación de dermatología que no funcionaba para las personas de piel más oscura. Aunque, por desgracia, no es nada nuevo que las grandes empresas tecnológicas lancen productos de aprendizaje automático obviamente racistas, su creciente presencia en las tecnologías médicas supone un cambio de escala, no en su tecnología, sino en su impacto. Los profesionales médicos y las vías de atención que la aplicación de Google pretende «aumentar» están fuertemente regulados, supervisados continuamente por instituciones profesionales y organismos de certificación, y sujetos a obligaciones fiduciarias con sus pacientes. En cambio, esta aplicación se basa en un artículo de Nature. Las tecnologías médicas son un ejemplo de las formas en que las tecnologías asesoran cada vez más a las personas -a menudo un asesoramiento que de otro modo estaría regulado- sin la correspondiente supervisión, experiencia o responsabilidad.

Cuando los sistemas digitales intercambian datos, suelen hacerlo para comunicar un hecho, o un conjunto de hechos. Por ello, la primera ola de regulación de Internet se centró en la protección de los datos como expresión, dando lugar a una serie de amplias protecciones, como la Sección 230 de Estados Unidos. Sin embargo, las protecciones basadas en la expresión descuidan en gran medida un tipo importante de comunicación: la representación de hechos.

En derecho, una representación es una declaración de hechos realizada en un contexto con repercusiones legales, como un tribunal o un contrato. La forma en que regulamos la representación de los hechos se basa en el contexto, porque el impacto de las representaciones también es contextual. La forma en que tratamos lo que la gente dice bajo juramento en un tribunal, por ejemplo, es muy diferente de la forma en que tratamos las frases pronunciadas a un terapeuta o a un amigo. Lo que separa una representación de otros tipos de expresión, como el habla, es que la ley asume que la persona que hace la representación entiende su seriedad, su potencial de impacto y su responsabilidad en consecuencia.

Los sistemas digitales, sin embargo, no suelen distinguir cómo comparten la información o la responsabilidad del impacto en función del contexto, que es donde las amplias protecciones se quedan especialmente cortas. A diferencia de la aplicación de dermatología de Google, por ejemplo, en el momento en que un cirujano coge un bisturí para operar a una persona, ese bisturí estará estéril, afilado y diseñado según las normas de la industria médica. La industria médica regula el hardware porque entendemos el impacto de la cirugía en la vida de una persona y la importancia de la consistencia de las herramientas para la prestación de servicios de alto impacto. Sin embargo, cuando diseñamos sistemas digitales -incluso sistemas digitales que afectan a los derechos fundamentales de millones de personas- a menudo no exigimos a esos sistemas ninguna norma perceptible. Por ejemplo, el despliegue mundial de aplicaciones de rastreo de contactos -utilizadas por millones de personas a un coste de cientos de millones- que todavía no han supuesto una diferencia perceptible en la contención del COVID-19. Y lo que es peor, tanto las licencias de datos comerciales como las «abiertas» otorgan una autoridad aún más amplia, permitiendo la reutilización de datos sin ninguna consideración real por su contexto. Es el equivalente a permitir que un cirujano te opere -o, más exactamente, a millones de personas- con cualquier cuchillo que encuentre en la calle.

*** Translated with http://www.DeepL.com/Translator (free version) ***

La incómoda relación entre los derechos humanos y la salud pública: Lecciones de Covid-19 y AI

El profesor John Tasioulas, director del Instituto de Ética en la IA de la Universidad de Oxford, fue el invitado distinguido de la última serie de oradores virtuales del IEAI, que tuvo lugar el 15 de julio de 2021.  Su presentación se centró en la incómoda relación entre los derechos humanos y la salud pública, así como en las lecciones aprendidas de Covid-19 y la IA.

El profesor Tasioulas habló de cómo la crisis de Covid-19 ha demostrado, no sólo lo mal preparadas que estaban algunas democracias avanzadas para afrontar este tipo de crisis. De hecho, el Reino Unido y los Estados Unidos, que se situaron a la cabeza del Índice de Seguridad Sanitaria Global en octubre de 2019, pero acabaron experimentando importantes dificultades para controlar la propagación del COVID-19 antes de la disponibilidad de las vacunas. La preparación para una crisis sanitaria tiene muchas dimensiones, sin embargo, esta charla se centró en la vigilancia en cuanto a las categorías éticas que ponemos en juego al abordar dicha crisis. La necesidad de articular claramente nuestros objetivos en las políticas sanitarias es esencial para evitar hacer juicios de valor controvertidos. Convertir un juicio de valor político en una cuestión de conocimientos técnicos no puede ser útil en contextos de políticas públicas, ya que la ciencia no puede demostrar cómo debe actuar la sociedad civil en estas circunstancias.

La segunda parte de la charla se centró en la vigilancia intelectual ante la pandemia de Covid-19. Se trata de comprender los valores relevantes que están en juego y la relación entre esos valores. La filosofía puede desempeñar un papel vital para ayudar a esa preparación, interrogando algunas de las ideas clave que debemos analizar al pensar en esos desafíos.

La falta de comprensión de los derechos humanos y de su relación con los valores pertinentes ha obstaculizado la formulación de políticas claras y justificadas en respuesta a la pandemia de Covid-19.

Estos problemas han sido causados por dos errores, la definición del alcance y contenido de tales derechos, así como la relación de los derechos humanos con la salud pública. El derecho a la salud se solapa con varios derechos, ya que son muchos los factores que afectan a nuestra salud, por ejemplo: el empleo o la vivienda. Sin embargo, el derecho a la salud se especifica sin la definición de obligaciones, lo que en última instancia se convierte en un reto para los gobiernos a la hora de aplicarlas. La amplia comprensión del contenido de los derechos, parece sugerir que ser anulado es una característica sistemática de los derechos, mientras que los derechos deberían ser simplemente obligaciones para el titular del derecho, que sería incorrecto violar. En conclusión, los derechos deberían generar obligaciones morales muy exigentes para los gobiernos que sólo pueden ser anuladas en circunstancias excepcionales.

La última parte de la presentación se centró en la relación de los derechos humanos, la salud pública y la democracia. Los derechos humanos y la salud pública no se excluyen mutuamente, y el respeto de los derechos humanos es el camino que puede llevar a la realización de los objetivos sanitarios. Además, el equilibrio entre los derechos y la salud está influenciado por un bien común. Un ejemplo claro es el papel que ha desempeñado la solidaridad en la promoción de la salud durante la crisis de Covid-19. Los bienes comunes se definen por tres factores principales: sirven por igual al interés de todos y al servir al interés de un individuo no puede quitarle la misma oportunidad a otro. Tener un claro entendimiento del bien común, vence el conflicto entre los beneficios y las cargas de todas las personas respectivamente. Sin embargo, las nuevas tecnologías, suponen una nueva amenaza para alterar el precario equilibrio entre derechos y salud, especialmente cuando son utilizadas por regímenes autoritarios. No obstante, el profesor Tasioulas analizó el ejemplo de Taiwán, donde las tecnologías digitales han facilitado formas de gobierno democráticas más radicales. En Taiwán, las herramientas digitales de la comunidad participativa han recogido las opiniones de los ciudadanos y las han sintetizado en ideas que pueden incluirse en los procesos de toma de decisiones. Además, se han desplegado herramientas digitales para hacer frente a las campañas de desinformación, sin necesidad de censurar, exigiendo a los sistemas que corrijan las afirmaciones falsas en un plazo de dos horas. En conclusión, sugirió que la democracia puede formar parte del ethos que mejor asegura los derechos humanos y la salud pública por igual, fomentando la solidaridad ciudadana que ambos factores requieren.

*** Translated with http://www.DeepL.com/Translator (free version) ***

La regulación de la IA propuesta por Europa se queda corta en protección de los derechos

https://www.computerweekly.com/feature/Europes-proposed-AI-regulation-falls-short-on-protecting-rights

La propuesta de la Comisión Europea para la regulación de la inteligencia artificial se centra en la creación de un enfoque basado en el riesgo y liderado por el mercado, repleto de autoevaluaciones, procedimientos de transparencia y estándares técnicos, pero los críticos advierten que no es capaz de proteger los derechos fundamentales de las personas y mitigar los problemas de la tecnología. peores abusos

El error humano de la inteligencia artificial

https://www.agendadigitale.eu/cultura-digitale/the-human-error-of-artificial-intelligence/

En enero de 2020, Robert Julian-Borchak, un hombre negro, fue arrestado en Detroit por un crimen que no cometió solo por un error en un sistema de inteligencia artificial de reconocimiento facial. Este, según el New York Times, fue el primer caso conocido de un ciudadano estadounidense arrestado por un error algorítmico.

El caso de Robert Julian-Borchak cuenta la historia de nuestro tiempo. Hoy en día, las fuerzas del orden y los tribunales utilizan cada vez más los sistemas de inteligencia artificial para monitorear, rastrear y perfilarnos y determinar nuestra posible inocencia o culpabilidad. Estas transformaciones no solo afectan a Estados Unidos. También en Europa, las lógicas algorítmicas se están incorporando rápidamente en los entornos de justicia penal [1] y la vigilancia policial predictiva. [2].

Como demuestra el ejemplo de Robert Julian-Borchak, el uso de estas tecnologías por los tribunales y las fuerzas del orden puede tener un impacto perjudicial sobre nuestros derechos y libertades, y esta es la razón por la que estos sistemas deben ser estudiados, probados, evaluados y, en ocasiones, prohibidos. .

En abril de 2021, la Comisión Europea publicó una nueva Propuesta de Reglamento sobre Inteligencia Artificial en Europa, cuyo objetivo es precisamente eso. La nueva propuesta no solo sugiere que debemos entender los sistemas de inteligencia artificial que se utilizan para perfilar a las personas (por agentes del orden, educadores, recursos humanos, etc.) como de alto riesgo, sino también prácticas como la puntuación social o la vigilancia biométrica en ‘tiempo real’. debería estar prohibido. La nueva propuesta también pide una mayor responsabilidad y transparencia en las formas en que se utiliza y se capacita la IA de alto riesgo. Lo que surge claramente de la propuesta de la Comisión de la UE es que los sistemas de inteligencia artificial destinados a la elaboración de perfiles humanos están expuestos a diferentes tipos de errores implícitos y sesgos en la elaboración de perfiles humanos que pueden amplificar las desigualdades en nuestra sociedad y pueden tener un impacto negativo en los derechos humanos.

La propuesta de la Comisión Europea de reglamento sobre inteligencia artificial es, en mi opinión, un paso adelante muy importante. Sin embargo, también creo que tenemos que ser realistas, aprender de la experiencia de GDPR y recordar que la implementación de propuestas legislativas como esta en Europa no es nada fácil. Lo cierto es que nuestra vida diaria se define ahora por una increíble cantidad de decisiones algorítmicas, que no son fácilmente controlables o gobernables.

La historia de Robert Julian-Borchak suena absurda, distópica y kafkiana. Es un caso extremo. En su extremo, sin embargo, nos enfrenta a una historia mucho más mundana y ordinaria: todos los días somos juzgados por sistemas de inteligencia artificial, y todos los días sus errores, sus sesgos pueden limitar nuestras libertades.

Derechos Humanos y Tecnología

https://tech.humanrights.gov.au/downloads

El Informe Final del Proyecto de Tecnología y Derechos Humanos es la culminación de una investigación nacional de tres años sobre los riesgos para los derechos humanos que plantean las tecnologías nuevas y emergentes.

Las recomendaciones del informe se basan en la experiencia de la Comisión, nuestra investigación y una amplia consulta pública con la comunidad, el gobierno, la industria y el mundo académico.

‘Pienso, luego existo’? – La inteligencia artificial y el sistema de crédito social chino: un análisis crítico de los derechos humanos

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3847481

El Sistema de Crédito Social Chino («SCS») es la última incorporación del Partido Comunista Chino («PCCh») en herramientas de aplicación extralegales para controlar el comportamiento de los ciudadanos chinos. Al expresar tanto un interés constante en la inteligencia artificial (‘AI’) como un rechazo constante de las normas de derechos humanos, la insistencia del PCCh en un SCS completamente nacionalizado solo exacerbará aún más la relación conflictiva entre AI y las normas de derechos humanos en China.

La UE debería regular la IA sobre la base de los derechos, no de los riesgos

https://www.accessnow.org/eu-regulation-ai-risk-based-approach/

En solo unos meses, la Comisión Europea está preparada para presentar un reglamento sobre inteligencia artificial (IA). A pesar de las numerosas declaraciones de la sociedad civil y otros actores sobre los peligros de aplicar un enfoque basado en el riesgo para regular la IA, la Comisión Europea parece decidida a ir en esta dirección. La Comisión ya dijo en su Libro Blanco de 2020 sobre Inteligencia Artificial que quería aplicar un enfoque basado en el riesgo.

Un enfoque basado en el riesgo implica determinar la escala o el alcance de los riesgos relacionados con una situación concreta y una amenaza reconocida. Este enfoque es útil en entornos técnicos donde las empresas tienen que evaluar sus propios riesgos operativos. Sin embargo, el enfoque de la UE haría que las empresas evaluaran sus riesgos operativos frente a los derechos fundamentales de las personas. Este es un concepto erróneo fundamental de lo que son los derechos humanos; no pueden equilibrarse con los intereses de las empresas. Las empresas también tendrían interés en minimizar los riesgos para desarrollar productos. Por lo tanto, un enfoque de la regulación basado en el riesgo no es adecuado para proteger los derechos humanos. Nuestros derechos no son negociables y deben ser respetados independientemente del nivel de riesgo asociado a factores externos.

Hemos escuchado a personas hacer numerosas referencias sobre cómo un enfoque basado en el riesgo tomaría el liderazgo del Reglamento General de Protección de Datos (GDPR). Esto es preocupante precisamente porque el GDPR no es fundamentalmente una ley basada en riesgos, y las partes que se ocupan de la evaluación de riesgos han demostrado ser muy problemáticas.

Como explicamos a continuación, la próxima propuesta legislativa sobre IA debería ser una ley basada en derechos, como el RGPD, ya que esta es la única forma de garantizar la protección de los derechos fundamentales. La Comisión Europea no debe comprometer nuestros derechos sustituyendo un mero ejercicio de mitigación de riesgos por parte de los mismos actores con intereses creados en el despliegue de esta tecnología.

Por qué el RGPD no es una ley basada en riesgos
A lo largo de las negociaciones del GDPR y desde su adopción en 2016, muchos en la industria han afirmado que la ley «consagra» o «establece» un enfoque basado en el riesgo para la protección de datos. Ese no es el caso.

El GDPR incluye referencias a riesgos y define los requisitos para realizar una evaluación de riesgos en escenarios específicos, como cuando hay una violación de datos. Sin embargo, el RGPD se basa en derechos y los hace operativos. Establece una serie de derechos que nos permiten controlar nuestra información y luego impone obligaciones y requisitos a las empresas y otras entidades que utilizan nuestros datos para proteger esos derechos. De hecho, durante las negociaciones del RGPD, el Grupo de Trabajo 29, que reúne a todas las autoridades de protección de datos de la UE, publicó una declaración sobre el enfoque basado en el riesgo para explicar que no puede reemplazar las obligaciones de la empresa para proteger nuestros derechos:

“… Al Grupo de Trabajo le preocupa que, tanto en relación con los debates sobre el nuevo marco jurídico de la UE para la protección de datos como más ampliamente, el enfoque basado en el riesgo se presente cada vez más y de forma errónea como una alternativa a los derechos y principios de protección de datos bien establecidos, más que como un enfoque escalable y proporcionado para el cumplimiento. El propósito de esta declaración es dejar las cosas claras «.

Singapur revela datos de privacidad de Covid disponibles para la policía

Los funcionarios habían descartado previamente explícitamente que los datos se usarían para cualquier otra cosa que no fuera el seguimiento de virus.

Pero el lunes se le dijo al parlamento que también podría usarse «con el propósito de una investigación criminal».

Cerca del 80% de los residentes están inscritos en el programa TraceTogether, que se utiliza para registrarse en las ubicaciones.

La aceptación voluntaria aumentó después de que se anunció que pronto sería necesaria para acceder a cualquier cosa, desde el supermercado hasta su lugar de trabajo.

El programa TraceTogether, que usa una aplicación de teléfono inteligente o un token de bluetooth, también monitorea con quién ha estado en contacto.

Si alguien da positivo en la prueba del virus, los datos permiten que los rastreadores se comuniquen rápidamente con cualquier persona que pueda haber sido infectada. Esto generó preocupaciones sobre la privacidad, temores que se han hecho eco en todo el mundo a medida que otros países implementaron sus propias aplicaciones de rastreo.

Para alentar a las personas a inscribirse, las autoridades de Singapur prometieron que los datos nunca se utilizarían para ningún otro propósito, diciendo que «nunca se accederá a los datos, a menos que el usuario dé positivo por Covid-19 y sea contactado por el equipo de rastreo de contactos».

Pero el ministro de Estado para Asuntos Internos, Desmond Tan, dijo al parlamento el lunes que, de hecho, también se puede utilizar «con fines de investigación criminal», y agregó que «de lo contrario, los datos de TraceTogether se utilizarán solo para el rastreo de contactos y con el fin de luchando contra la situación de Covid «.

https://www.bbc.com/news/world-asia-55541001

INTELIGENCIA ARTIFICIAL Y DERECHOS FUNDAMENTALES

 Las nuevas tecnologías han cambiado profundamente la forma en que organizamos y vivimos nuestras vidas. En particular, las nuevas tecnologías basadas en datos han estimulado el desarrollo de la inteligencia artificial (IA), incluida una mayor automatización de las tareas que suelen realizar los humanos. La crisis de salud de COVID-19 ha impulsado la adopción de IA y el intercambio de datos, creando nuevas oportunidades, pero también desafíos y amenazas a los derechos humanos y fundamentales.

https://fra.europa.eu/sites/default/files/fra_uploads/fra-2020-artificial-intelligence_en.pdf

Crea tu sitio web con WordPress.com
Comenzar