Errores en el pasaporte de vacunas que no debemos repetir

https://www.eff.org/deeplinks/2021/08/vaccine-passport-missteps-we-should-not-repeat

Los mandatos de vacunación son cada vez más urgentes por parte de las autoridades de salud pública y de los distintos gobiernos. A medida que se despliegan, debemos proteger a los usuarios de los pasaportes de vacunas y a aquellos que no quieren o no pueden utilizar un medio digitalmente escaneable para demostrar la vacunación. No podemos permitir que las herramientas utilizadas para luchar por la salud pública se conviertan en sistemas para perpetuar la desigualdad o como cobertura para la recopilación de datos innecesarios y no relacionados. 

Durante el último año, la EFF ha estado siguiendo las propuestas de pasaportes de vacunas y cómo se han aplicado. Tenemos objeciones, sobre todo cuando las ponen en marcha empresas tecnológicas oportunistas que ya están creando desigualdades digitales y gestionando mal los datos de los usuarios. Esperamos poder evitar que se transformen en otra capa de seguimiento de los usuarios.

Los comprobantes de vacunación en papel suscitan menos preocupaciones, al igual que una foto digital de una tarjeta de papel mostrada en la pantalla de un teléfono. Mucho más preocupantes son las credenciales de vacunación escaneables, que podrían utilizarse para seguir los movimientos físicos de las personas a través de las puertas y a lo largo del tiempo. Por lo tanto, nos oponemos a cualquier uso de credenciales de vacunación escaneables. Como mínimo, estos sistemas deben tener una alternativa en papel, un código abierto y salvaguardas de diseño y políticas para minimizar el riesgo de rastreo.

El año pasado se propusieron y a veces se aplicaron «pasaportes de inmunidad» antes de que la ciencia estuviera siquiera bien desarrollada sobre la inmunidad y la vacunación de COVID-19. Al parecer, muchos gobiernos y empresas privadas se guiaron menos por la salud pública y la ciencia informada que por la necesidad de promover el movimiento económico. Algunas organizaciones y gobiernos incluso aprovecharon la oportunidad para crear un nuevo sistema de verificación digital de los vacunados. Ha faltado la transparencia y la protección necesarias, así como unos límites claros para evitar que se conviertan en un sistema de vigilancia innecesario. Aunque reconocemos que muchos sistemas de acreditación de vacunas se han implementado de buena fe, a continuación hay varios ejemplos de peligrosos pasos en falso que esperamos que no se repitan.

El pase Excelsior del Estado de Nueva York

Lanzada en abril, esta aplicación móvil opcional ha tenido una adopción gradual. En este despliegue aparecieron tres problemas clave. 

En primer lugar, IBM no fue transparente en cuanto a cómo se construyó esta aplicación. En su lugar, la empresa utilizó vagas palabras de moda, como «tecnología de cadena de bloques», que no describen con detalle cómo se mantienen seguros los datos de los usuarios.

En segundo lugar, el Proyecto de Supervisión de la Tecnología de Vigilancia (S.T.O.P.), miembro de la Electronic Frontier Alliance, descubrió un contrato que el Estado de Nueva York tenía con IBM, en el que se esbozaba una «fase 2» del pasaporte. No sólo tendría un precio significativamente mayor (de 2,5 a 27 millones de dólares), sino que ampliaría lo que Excelsior puede contener, como permisos de conducir y otros registros sanitarios.

En tercer lugar, se presentó un proyecto de ley para proteger los datos de Covid un mes después del lanzamiento del Excelsior Pass. Se aprobó en la Asamblea del Estado de Nueva York, pero nunca fue retomada por el Senado del Estado de Nueva York. Las protecciones deberían haber sido aprobadas antes de que el estado pusiera en marcha el Excelsior Pass.

Un camino «claro» para centralizar las credenciales de vacunación con otros datos personales

CLEAR muestra un eslogan de la empresa en el aeropuerto de San Francisco.

CLEAR ya ocupa un lugar en los principales aeropuertos de Estados Unidos como única empresa privada en el programa de viajeros registrados de la TSA. Así que esta empresa estaba preparada para lanzar su Health Pass, que pretende facilitar los controles de Covid al vincular los datos de salud con la identificación digital basada en la biometría. El modelo de negocio original de CLEAR nació de la anterior prisa por la seguridad, en un mundo posterior al 11-S. Ahora están ahí para la siguiente tarea de seguridad apresurada: la verificación de la vacunación para viajar. En palabras de la responsable de asuntos públicos de CLEAR, María Comella, a Axios:

«La plataforma de identidad biométrica de confianza de CLEAR nació del 11-S para ayudar a millones de viajeros a sentirse seguros cuando vuelan. Ahora, la tecnología sin contacto de CLEAR es capaz de conectar la identidad con la información sobre la salud para ayudar a la gente a sentirse segura al volver a la oficina.»

*** Translated with http://www.DeepL.com/Translator (free version) ***

Carmela Troncoso: «La digitalización también trae inconvenientes y aún no entendemos el impacto que va a tener»

https://www.atlantico.net/articulo/vigo/carmela-troncoso-digitalizacion-tambien-trae-inconvenientes-aun-entendemos-impacto-que-va-tener/20210815225620858578.html

Carmela Troncoso es una ingeniera viguesa especializada en el área de la privacidad en las telecomunicaciones que trabaja como profesora en la Escuela Politécnica de Lausana, donde desarrolló un protocolo que permitía utilizar aplicaciones móviles para facilitar el rastreo de contactos de covid sin usar geolocalización. Un trabajo por el que fue reconocida por la revista Fortune como una de las 40 personas más influyentes del mundo.

¿Cómo recibió este reconocimiento?

Fue una sorpresa, no solo por la valoración de la privacidad, sino también por tener en cuenta contribución conceptual a la hora de cambiar el diseño y no tanto a la hora de generar beneficio económico. En la lista de tecnología era de las pocas personas que no había fundado una empresa multimillonaria.

La aplicación Radar Covid tuvo una baja adopción. ¿Se debió a la desconfianza de la gente?

Las aplicaciones han tenido menos adopción que la esperada, que es la principal causa de que tuviesen menos impacto. Sin embargo hay cada vez más estudios que indican que tienen un efecto positivo, no es muy grande porque si solo la usa un 20% de la población no puede llegar más lejos. En cuanto a la desconfianza de la gente, sigue siendo una de las razones por las que no instalan las aplicaciones.

¿Hay riesgos para la privacidad en otras alternativas como los códigos QR?

Es el mismo problema, depende de dónde se ponga esta información y cómo creas el sistema para que recoja esos datos. En España dependiendo de la comunidad autónoma se han hecho cosas más o menos invasivas, que yo sepa ha tenido muy poco recorrido, pero hemos visto por ejemplo en Alemania como empezó siendo más optativo y luego una de las regiones lo hizo obligatorio para todo tipo de edificios desde colegios hasta edificios religiosos y esto quiere decir que vas dejando un rastro de a dónde vas y hay sitios en los que es extremadamente importante para nuestra libertad de reunión y de expresión que ésto no exista. De hecho diseñamos un protocolo en la misma línea que el primero que está implementado en la aplicación de Suiza para utilizar los códigos QR sin caer en esos problemas.

¿Estamos avanzando hacia la digitalización sin tener en cuenta sus consecuencias?

Hay muy poca conversación en general con la sociedad civil. La digitalización está muy bien pero también trae inconvenientes y a veces con la tecnología aún no entendemos el impacto que va a tener. Una vez que creas el sistema se queda. En Suiza utilizaron herramientas digitales para inscribirse a la vacunación y mucha gente mayor tuvo problemas.  Tenemos la idea de que la tecnología tiene que valer para todo y que todas las aplicaciones son buenas. A lo mejor algunas no lo son y hay cosas que no se deberían hacer. También hay que valorar cuánto nos hace depender la digitalización de las grandes tecnológicas y cuánta libertad perderemos, ya que se convierten en los mediadores de la sociedad. Si todo lo que hacemos está en la nube de Amazon o en las ‘apps’ de Google va a ser muy fácil pero luego vas a depender de ellos para manejar tu sociedad y eso es muy problemático. Apple ya ha anunciado que escaneará las fotos en los teléfonos como medida de protección contra la pornografía infantil y ahora vamos a tener a Apple en el medio en decidir qué tiene que ir a las autoridades y qué no. Por otro lado la administración pública no está preparada tecnológicamente entre otras cosas porque el capitalismo y la economía de escala hace que externalice servicios digitales. España tiene el servidor de Radar Covid en la nube de Amazon.

El nuevo traje de la gobernanza de datos. Cuando los ciudadanos, los consumidores y las partes interesadas no pueden hacer que las instituciones rindan cuentas de sus promesas, hay pocas razones para confiar en ellas

https://www.cigionline.org/articles/data-governances-new-clothes/

El «gobierno» de los datos, sin derechos reales, es una ilusión vergonzosa.

Recientemente, el Servicio Nacional de Salud (NHS) del Reino Unido, a menudo descrito como el orgullo de ese país, recibió el revés legal y de la prensa por una política de compartir la información sanitaria personal de los pacientes con terceros, entre ellos Palantir, una controvertida empresa tecnológica estadounidense. La medida fue lo suficientemente preocupante como para inspirar una demanda, meses de retrasos en la investigación y una protesta de los médicos. Pero, quizá lo más preocupante, es que el Gobierno británico describió su necesidad de confianza y cumplimiento de las leyes de datos, al tiempo que obligaba a los pacientes -probablemente de forma ilegal- a pasar por un enrevesado proceso de «exclusión», en lugar de obtener un consentimiento afirmativo.

La medida centraliza de forma significativa las decisiones sobre la gobernanza y el corretaje de los datos recogidos por los servicios sanitarios del Reino Unido. Crea un nuevo foco de poder potencial y, lo que es más preocupante, es algo que el gobierno tory británico ha estado intentando llevar a cabo durante los últimos ocho años. Al principio, se llamaba Care.data. Entonces fracasó porque no pudo ganarse la confianza del público. Pero las cosas han cambiado. En 2021, con los poderes de emergencia en vigor y una pandemia mundial como cobertura, Westminster está más inclinado a fingir disculpas que a pedir permiso.

Debemos reconocer desde el principio que la gobernanza de los datos es como cualquier diseño: todos los datos se gobiernan. Lo que difiere, de un caso a otro, es el grado de consideración, equidad y responsabilidad con que se hace. Una forma fácil de predecir la popularidad de una nueva tendencia de gobernanza es buscar soluciones que parezcan justas y suenen como tales, pero que no tengan en cuenta de forma significativa la política o el poder. La explotación de la arquitectura de datos para maximizar la influencia privada sobre los servicios públicos, y su huella digital, no sólo está creciendo durante la pandemia de COVID-19; está haciendo cada vez más evidente la facilidad con la que los planes supuestamente benignos para la gestión de datos pueden ser mal utilizados, bajo la apariencia de conferir un beneficio público o un bien social.

Independientemente de que estas iniciativas se centren en el «código abierto», la «tecnología para el bien» o la «infraestructura pública digital», en el fondo suelen recurrir a recursos privilegiados por el público y se invierte en poner un conjunto de servicios, herramientas o derechos de acceso a disposición de un pequeño grupo de personas ya privilegiadas, sin abordar de forma significativa el coste relativo para quienes la tecnología deja fuera. Eso no es nada «bueno».

Y esta división está en la raíz de una importante y creciente brecha en el campo de la gobernanza de los datos, que se está incrustando rápidamente en todos los sistemas que evolucionan para depender de las herramientas y los datos digitales. Como resultado, los proyectos de transformación digital que más dependen de la legitimidad y la confianza del público a menudo traicionan esa confianza. Ofrecen garantías públicas de protección abstracta de la privacidad y la seguridad, mientras que no desarrollan ninguna vía significativa para la aplicación o la justicia. El resultado inevitable es la fragilidad y la injusticia cuando estos sistemas resultan ser defectuosos.

En la práctica, la brecha comienza con la definición del problema. A grandes rasgos, hay dos marcos animadores para los proyectos de gobernanza de datos. El primero es la maximización del valor de los datos: «Estamos generando muchos datos: ¿cómo maximizamos su valor?». El segundo tiene su origen en la resolución de un problema en el contexto: «¿Podemos ayudar a resolver un problema para un grupo de personas con datos o tecnología?» Los enfoques de maximización del valor y de resolución de problemas contextuales para la gobernanza de los datos son intrínsecamente políticos, pero miden y realizan su política de forma muy diferente. La maximización del valor incentiva a los pioneros y a las definiciones amplias de los problemas, al tiempo que minimiza los costes de la diligencia debida, la participación de los titulares de derechos y la responsabilidad. Por el contrario, los enfoques de resolución de problemas contextuales tienden a incentivar la diligencia debida, la colaboración con los titulares de los derechos y la rendición de cuentas, todo lo cual es un coste, si no un obstáculo, para la reutilización de los datos.

*** Translated with http://www.DeepL.com/Translator (free version) ***

El sentido de las aplicaciones digitales de rastreo de contactos para las próximas pandemias

https://algorithmwatch.org/en/interview-susan-landau-contact-tracing/

En una entrevista con AlgorithmWatch, la profesora Susan Landau explica por qué debemos resistir el miedo ante la incertidumbre de la pandemia y la normalización de las tecnologías de vigilancia de la salud, y por qué ha llegado el momento de celebrar un amplio debate democrático sobre sus futuros usos.

La incómoda relación entre los derechos humanos y la salud pública: Lecciones de Covid-19 y AI

El profesor John Tasioulas, director del Instituto de Ética en la IA de la Universidad de Oxford, fue el invitado distinguido de la última serie de oradores virtuales del IEAI, que tuvo lugar el 15 de julio de 2021.  Su presentación se centró en la incómoda relación entre los derechos humanos y la salud pública, así como en las lecciones aprendidas de Covid-19 y la IA.

El profesor Tasioulas habló de cómo la crisis de Covid-19 ha demostrado, no sólo lo mal preparadas que estaban algunas democracias avanzadas para afrontar este tipo de crisis. De hecho, el Reino Unido y los Estados Unidos, que se situaron a la cabeza del Índice de Seguridad Sanitaria Global en octubre de 2019, pero acabaron experimentando importantes dificultades para controlar la propagación del COVID-19 antes de la disponibilidad de las vacunas. La preparación para una crisis sanitaria tiene muchas dimensiones, sin embargo, esta charla se centró en la vigilancia en cuanto a las categorías éticas que ponemos en juego al abordar dicha crisis. La necesidad de articular claramente nuestros objetivos en las políticas sanitarias es esencial para evitar hacer juicios de valor controvertidos. Convertir un juicio de valor político en una cuestión de conocimientos técnicos no puede ser útil en contextos de políticas públicas, ya que la ciencia no puede demostrar cómo debe actuar la sociedad civil en estas circunstancias.

La segunda parte de la charla se centró en la vigilancia intelectual ante la pandemia de Covid-19. Se trata de comprender los valores relevantes que están en juego y la relación entre esos valores. La filosofía puede desempeñar un papel vital para ayudar a esa preparación, interrogando algunas de las ideas clave que debemos analizar al pensar en esos desafíos.

La falta de comprensión de los derechos humanos y de su relación con los valores pertinentes ha obstaculizado la formulación de políticas claras y justificadas en respuesta a la pandemia de Covid-19.

Estos problemas han sido causados por dos errores, la definición del alcance y contenido de tales derechos, así como la relación de los derechos humanos con la salud pública. El derecho a la salud se solapa con varios derechos, ya que son muchos los factores que afectan a nuestra salud, por ejemplo: el empleo o la vivienda. Sin embargo, el derecho a la salud se especifica sin la definición de obligaciones, lo que en última instancia se convierte en un reto para los gobiernos a la hora de aplicarlas. La amplia comprensión del contenido de los derechos, parece sugerir que ser anulado es una característica sistemática de los derechos, mientras que los derechos deberían ser simplemente obligaciones para el titular del derecho, que sería incorrecto violar. En conclusión, los derechos deberían generar obligaciones morales muy exigentes para los gobiernos que sólo pueden ser anuladas en circunstancias excepcionales.

La última parte de la presentación se centró en la relación de los derechos humanos, la salud pública y la democracia. Los derechos humanos y la salud pública no se excluyen mutuamente, y el respeto de los derechos humanos es el camino que puede llevar a la realización de los objetivos sanitarios. Además, el equilibrio entre los derechos y la salud está influenciado por un bien común. Un ejemplo claro es el papel que ha desempeñado la solidaridad en la promoción de la salud durante la crisis de Covid-19. Los bienes comunes se definen por tres factores principales: sirven por igual al interés de todos y al servir al interés de un individuo no puede quitarle la misma oportunidad a otro. Tener un claro entendimiento del bien común, vence el conflicto entre los beneficios y las cargas de todas las personas respectivamente. Sin embargo, las nuevas tecnologías, suponen una nueva amenaza para alterar el precario equilibrio entre derechos y salud, especialmente cuando son utilizadas por regímenes autoritarios. No obstante, el profesor Tasioulas analizó el ejemplo de Taiwán, donde las tecnologías digitales han facilitado formas de gobierno democráticas más radicales. En Taiwán, las herramientas digitales de la comunidad participativa han recogido las opiniones de los ciudadanos y las han sintetizado en ideas que pueden incluirse en los procesos de toma de decisiones. Además, se han desplegado herramientas digitales para hacer frente a las campañas de desinformación, sin necesidad de censurar, exigiendo a los sistemas que corrijan las afirmaciones falsas en un plazo de dos horas. En conclusión, sugirió que la democracia puede formar parte del ethos que mejor asegura los derechos humanos y la salud pública por igual, fomentando la solidaridad ciudadana que ambos factores requieren.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Se han construido cientos de herramientas de inteligencia artificial para atrapar a los cóvidos. Ninguna de ellas ha ayudado

https://www.technologyreview.com/2021/07/30/1030329/machine-learning-ai-failed-covid-hospital-diagnosis-pandemic/

Cuando el covid-19 asoló Europa en marzo de 2020, los hospitales se vieron inmersos en una crisis sanitaria que aún no se comprendía bien. «Los médicos no tenían ni idea de cómo tratar a estos pacientes», dice Laure Wynants, epidemióloga de la Universidad de Maastricht (Países Bajos), que estudia las herramientas de predicción.

Pero había datos procedentes de China, que llevaba cuatro meses de ventaja en la carrera para vencer la pandemia. Si se pudieran entrenar algoritmos de aprendizaje automático con esos datos para ayudar a los médicos a entender lo que estaban viendo y tomar decisiones, se podrían salvar vidas. «Pensé: ‘Si hay algún momento en que la IA puede demostrar su utilidad, es ahora'», dice Wynants. «Tenía muchas esperanzas».

Historia relacionada

La IA médica de Google fue súper precisa en un laboratorio. La vida real fue una historia diferente.

Si la IA va a suponer realmente una diferencia para los pacientes, tenemos que saber cómo funciona cuando los humanos reales le ponen las manos encima, en situaciones reales.

Esto nunca ocurrió, pero no por falta de esfuerzo. Los equipos de investigación de todo el mundo se pusieron manos a la obra. La comunidad de la IA, en particular, se apresuró a desarrollar un software que muchos creían que permitiría a los hospitales diagnosticar o clasificar a los pacientes con mayor rapidez, aportando un apoyo muy necesario a las primeras líneas, en teoría.

Al final, se desarrollaron cientos de herramientas predictivas. Ninguna de ellas supuso una diferencia real, y algunas fueron potencialmente perjudiciales.

Ésa es la conclusión condenatoria de múltiples estudios publicados en los últimos meses. En junio, el Instituto Turing, el centro nacional del Reino Unido para la ciencia de los datos y la IA, publicó un informe que resumía los debates de una serie de talleres que celebró a finales de 2020. El claro consenso era que las herramientas de IA habían tenido poco o ningún impacto en la lucha contra el covirus.

No son aptas para el uso clínico

Esto se hace eco de los resultados de dos grandes estudios que evaluaron cientos de herramientas de predicción desarrolladas el año pasado. Wynants es la autora principal de uno de ellos, una revisión publicada en el British Medical Journal que sigue actualizándose a medida que se publican nuevas herramientas y se prueban las existentes. Ella y sus colegas examinaron 232 algoritmos para diagnosticar a los pacientes o predecir el grado de enfermedad que podrían padecer. Descubrieron que ninguno de ellos era apto para el uso clínico. Sólo dos han sido señalados como lo suficientemente prometedores para ser probados en el futuro.

«Es impactante», dice Wynants. «Me adentré en él con algunas preocupaciones, pero esto superó mis temores».

El estudio de Wynants está respaldado por otra gran revisión realizada por Derek Driggs, investigador de aprendizaje automático de la Universidad de Cambridge, y sus colegas, y publicada en Nature Machine Intelligence. Este equipo se centró en los modelos de aprendizaje profundo para diagnosticar el covirus y predecir el riesgo de los pacientes a partir de imágenes médicas, como las radiografías de tórax y las tomografías computarizadas (TC) de tórax. Examinaron 415 herramientas publicadas y, al igual que Wynants y sus colegas, concluyeron que ninguna era apta para el uso clínico.

Historia relacionada

Los médicos utilizan la IA para clasificar a los pacientes con covagancia 19. Las herramientas pueden llegar para quedarse

Ante la escasez de personal y la abrumadora carga de pacientes, un número creciente de hospitales está recurriendo a herramientas automatizadas para ayudarles a gestionar la pandemia.

«Esta pandemia fue una gran prueba para la IA y la medicina», dice Driggs, que está trabajando en una herramienta de aprendizaje automático para ayudar a los médicos durante la pandemia. «Habría servido de mucho para poner al público de nuestro lado», dice. «Pero no creo que hayamos superado esa prueba».

Ambos equipos descubrieron que los investigadores repetían los mismos errores básicos en la forma de entrenar o probar sus herramientas. Las suposiciones incorrectas sobre los datos a menudo significaban que los modelos entrenados no funcionaban como se decía.

Wynants y Driggs siguen creyendo que la IA tiene potencial para ayudar. Pero les preocupa que pueda ser perjudicial si se construye de forma incorrecta, ya que podría pasar por alto diagnósticos o subestimar el riesgo de los pacientes vulnerables. «Hay mucha exageración sobre los modelos de aprendizaje automático y lo que pueden hacer hoy en día», dice Driggs.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Hacer medible: lo que Galileo no dijo sobre la subjetividad de los algoritmos

https://towardsdatascience.com/make-measurable-what-galileo-didnt-say-about-the-subjectivity-of-algorithms-8d1d324253da

El aforismo de Galileo «Mide lo que puede ser medido, y haz medible lo que no puede serlo» resuena en casi todos los sistemas algorítmicos actuales. Pero en estos ecos resuena la realidad de que el acto de «hacer» algo medible nunca es puramente objetivo: es el resultado de decisiones subjetivas. Reconocer esto es clave para prevenir los daños que pueden crear los algoritmos.

Es aparentemente intuitivo pensar que los «datos» sobre una cosa son una representación real de la misma. Por ejemplo, mi altura es de 1,70 metros y Londres es la capital del Reino Unido, dos datos que reflejan la realidad. Pero el reputado estadístico David Spiegelhalter nos recuerda que los datos «son casi siempre una medida imperfecta de lo que nos interesa». Para contar todos los árboles del planeta, señala, hay que definir primero lo que cuenta como árbol. Hay más de una forma de hacerlo, y no todo el mundo estará de acuerdo en cuál es la correcta. Es un buen recordatorio: algunos dirían que yo mido más bien 1,70 m, según cómo se sujete la cinta métrica, y ¿qué pasa con Edimburgo, Gales y Belfast? También son capitales del Reino Unido.

En otras palabras, el proceso de hacer que las cosas sean medibles es un proceso de elección de cómo medirlas. ¿Qué aspectos de un fenómeno deben contarse? ¿Cómo se clasificarán y cuantificarán esos aspectos? ¿Qué métrica se utilizará? ¿Qué cualidades captan y reflejan esas métricas o no? Estas decisiones suelen conducir a un proceso de reducción: la reducción de fenómenos complejos, a menudo cualitativos, a datos numéricos sencillos: un proceso llamado de «dataficación».

El hecho de que los datos no sean un reflejo perfecto del mundo se entiende bien en la ciencia de los datos (todos los modelos son erróneos, pero algunos son útiles). Sin embargo, los datos son la base de muchos de los algoritmos que impregnan y permiten cada vez más nuestra sociedad digital. Los algoritmos toman los productos reductores de la digitalización -productos de decisiones subjetivas sobre cómo hacer algo medible- y los codifican mediante procesos fijos en resultados supuestamente objetivos. No tener en cuenta esta naturaleza reductora de la digitalización es la causa fundamental de muchos daños y fallos de los algoritmos.

Podemos ver cómo esto se manifiesta en dos ejemplos: el rastreo digital de contactos y el llamado reconocimiento de emociones.

Reconocimiento de contactos y rastreo de emociones

En primer lugar, el rastreo digital de contactos. En respuesta a la pandemia de Covid-19, los expertos en salud pública reconocieron rápidamente que el rastreo de contactos sería clave para hacer frente a la propagación del virus. Sin embargo, el rastreo manual de contactos es laborioso y requiere mucho tiempo y recursos humanos. Los gobiernos y las instituciones de salud pública querían un modelo de rastreo de contactos que pudiera ampliarse para hacer frente al reto de Covid. Para conseguirlo, muchos países recurrieron a soluciones digitales.

La pandemia de COVID-19 y la brecha de confianza tecnológica

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3874152

La industria y el gobierno intentaron utilizar las tecnologías de la información para responder a la pandemia de COVID-19, pero el uso de Internet como herramienta para la vigilancia de la enfermedad, los mensajes de salud pública y la logística de las pruebas resultó ser una decepción. ¿Por qué no fueron más eficaces estos esfuerzos? Este ensayo sostiene que los esfuerzos de la industria y el gobierno para aprovechar la tecnología estaban condenados al fracaso porque las plataformas tecnológicas han fracasado en las últimas décadas a la hora de hacer que sus herramientas sean dignas de confianza, y los legisladores han hecho poco para hacer que estas empresas rindan cuentas. Las personas no pueden confiar en las interfaces con las que interactúan, en los dispositivos que utilizan y en los sistemas que alimentan los servicios de las empresas tecnológicas.

Este ensayo explora estos males preexistentes de la privacidad que han contribuido a estos problemas, como las interfaces de usuario manipuladoras, los regímenes de consentimiento que cargan a las personas con todos los riesgos del uso de la tecnología y los dispositivos que recogen muchos más datos de los que deberían. Una respuesta a una pandemia es tan buena como su adopción, pero las preocupaciones preexistentes sobre la privacidad y la tecnología dificultan que las personas que buscan salvavidas confíen en las tecnologías diseñadas para protegerlas. Sostenemos que una buena manera de ayudar a cerrar la brecha de confianza en la tecnología es a través de los deberes relacionales de lealtad y cuidado, mejores marcos que regulen el diseño de las tecnologías de la información, y normas sustantivas que limiten la recopilación y el uso de datos en lugar de normas de procedimiento de «consentimiento y control». Concluimos que la pandemia podría ser una oportunidad para aprovechar la motivación de los legisladores para mejorar nuestros marcos de privacidad y hacer que las tecnologías de la información sean dignas de nuestra confianza.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Abren dos procedimientos sancionadores contra Radar Covid por falta de cumplimiento en protección de datos

https://www.abc.es/tecnologia/moviles/aplicaciones/abci-abren-procedimientos-sancionadores-contra-radar-covid-falta-cumplimiento-proteccion-datos-202106161227_noticia.html

La Agencia Española de Protección de Datos (AEPD) ha abierto dos procesos sancionadores –uno a la Dirección General de Salud Pública y otro al Ministerio de Asuntos Económicos y Transformación Digital– por una posible vulneración del Reglamento General de Protección de Datos (RGPD) en la aplicación de rastreo del coronavirus, Radar Covid. Esta medida llega después de la presentación de sendas reclamaciones interpuestas por la ONG Rights International Spain y Pau Enseñat, director ejecutivo de la plataforma Reclamadatos, en las que se sostiene que el Gobierno no compartió la información necesaria –y en los plazos adecuados– sobre el desarrollo de la aplicación en base a las directrices europeas, entre ella la evaluación de impacto de la herramienta y el histórico de su código fuente.

En el documento enviado por la AEPD a los demandantes, al que ha tenido acceso ABC, la agencia sostiene que «a tenor de la información preliminar de la que se dispone, se aprecian indicios racionales de una posible vulneración de la normativa en materia de protección de datos, sin perjuicio de lo que se determine en el curso de la tramitación».

En la primera demanda, presentada por Enseñat en septiembre de 2020, se solicitaba a la AEPD que analizase si Radar Covid cumplía « con los principios de licitud, lealtad, transparencia y responsabilidad proactiva (Art.5 RGPD), ya que la SGAD (Secretaría General de Administración Digital) no había publicado la Evaluación de Impacto sobre la Protección de Datos (EIPD), en contra de lo indicado expresamente por el Comité Europeo de Protección de Datos».

Cabe recordar que, con la llegada de las aplicaciones de rastreo, el Comité Europeo de Protección de Datos compartió una serie de directrices para su correcto desarrollo e implementación. Entre ellas figura la evaluación de impacto de las herramientas «relativa a la protección de datos antes de su despliegue». Algo que permitiría limitar los riesgos de posibles fallos de privacidad en el momento en el que estuviesen disponibles. Según destaca en conversación con este periódico el abogado Sergio Carrasco, encargado de la litigación estratégica en nombre de Rights International Spain, este estudio no se hizo en el momento correcto en el caso de Radar Covid.

El coste energético de vivir confinado conectado

https://alanwinfield.blogspot.com/2021/05/the-energy-cost-of-online-living-in.html

Los lectores de su blog sabrán que una de las muchas cosas éticas que me preocupan es el coste energético de la IA. Como parte del trabajo que estoy haciendo con Claudia Pagliari y su Grupo Nacional de Expertos en Ética Digital para Escocia, he estado investigando también los costos de energía de lo que es, para muchos de nosotros, la vida digital cotidiana encerrada. Todavía no tengo un conjunto completo de resultados, pero lo que he encontrado hasta ahora es sorprendente, y no en el buen sentido.

Hasta ahora he analizado los costos de energía de (i) subir a la nube, (ii) transmitir video (es decir, desde iPlayer o Netflix) y (iii) videoconferencia.

(i) Subir a la nube. Este artículo de 2017 de la revista Stanford Magazine explica que cuando guarda un archivo de 1 Gbyte (aproximadamente 1 hora de video) en la unidad de disco de su computadora portátil, el costo de energía es 0.000005 kWh o 5 milivatios hora. Guarde el mismo archivo en la nube y el costo de energía es de entre 3 y 7 kWh. A modo de comparación, su hervidor eléctrico quema alrededor de 3 kWh. Esto significa que el costo energético de ahorrar en la nube es aproximadamente un millón de veces mayor que en su unidad de disco local.

La gran diferencia tiene sentido si se considera que existe una red internacional muy compleja de conmutadores, enrutadores y concentradores de intercambio, además de innumerables amplificadores que mantienen la intensidad de la señal en líneas de transmisión de larga distancia. Todo esto consume energía. Luego agregue una porción de los costos de energía de la granja de servidores.

Crea tu sitio web con WordPress.com
Comenzar