Diseña un sitio como este con WordPress.com
Comenzar

Los grupos de derechos humanos exigen a Zoom que detenga los planes de la controvertida IA emocional

https://www.protocol.com/enterprise/zoom-emotion-ai-aclu-rights?s=03

La IA de las emociones utiliza la visión por ordenador y el reconocimiento facial, el reconocimiento del habla, el procesamiento del lenguaje natural y otras tecnologías de IA para capturar datos que representan las expresiones externas de las personas en un esfuerzo por detectar sus emociones, actitudes o sentimientos internos.

«El uso de este software por parte de Zoom da crédito a la pseudociencia del análisis de las emociones que, según los expertos, no funciona. Las expresiones faciales pueden variar significativamente y a menudo están desconectadas de las emociones subyacentes de tal manera que incluso los humanos a menudo no son capaces de descifrarlas con precisión», continuaron.

«Da la sensación de que son una empresa que está abierta a considerar todos estos factores», dijo Seeley George sobre Zoom. Dijo que Zoom no ha respondido a las solicitudes de la organización para discutir el tema. La empresa tampoco ha respondido a las peticiones de Protocolo para hacer comentarios.

Traducción realizada con la versión gratuita del traductor http://www.DeepL.com/Translator

Anuncio publicitario

Inteligencia artificial fisiognómica

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3927300

La reanimación de las pseudociencias de la fisionomía y la frenología a escala mediante la visión por ordenador y el aprendizaje automático es un asunto de urgente preocupación. Este artículo, que contribuye a los estudios de datos críticos, a la ley de protección del consumidor, a la ley de privacidad biométrica y a la ley antidiscriminación, se esfuerza por conceptualizar y problematizar la inteligencia artificial (IA) fisionómica y ofrecer recomendaciones políticas para que los legisladores estatales y federales eviten su proliferación.

La IA fisiognómica, sostenemos, es la práctica de utilizar programas informáticos y sistemas relacionados para inferir o crear jerarquías de la composición corporal de un individuo, el estatus de clase protegida, el carácter percibido, las capacidades y los futuros resultados sociales basados en sus características físicas o de comportamiento. Las lógicas fisiognómicas y frenológicas son intrínsecas al mecanismo técnico de la visión por ordenador aplicada a los seres humanos. En este artículo, observamos cómo la visión por ordenador es un vector central para las tecnologías de IA fisiognómica, desgranando cómo la visión por ordenador reanima la fisiognomía en su concepción, forma y práctica y los peligros que esta tendencia presenta para las libertades civiles.

Este artículo aboga por la adopción de medidas legislativas para prevenir y frenar la proliferación de la IA fisionómica. Para ello, consideramos un posible menú de salvaguardias y limitaciones para limitar de forma significativa el despliegue de los sistemas de IA fisionómica, que esperamos pueda utilizarse para reforzar la legislación local, estatal y federal. En primer lugar, proponemos la abolición de la IA fisionómica. A partir de ahí, planteamos los regímenes de la ley de protección del consumidor de Estados Unidos, la ley de privacidad biométrica y la ley de derechos civiles como vehículos para rechazar el renacimiento digital de la inteligencia artificial fisonómica. En concreto, argumentamos que la IA fisiognómica debería rechazarse categóricamente por ser opresiva e injusta. En segundo lugar, argumentamos que los legisladores deberían declarar la IA fisionómica como injusta y engañosa per se. En tercer lugar, sostenemos que los legisladores deberían promulgar o ampliar las leyes de privacidad biométrica para prohibir la IA fisionómica. En cuarto lugar, sostenemos que los legisladores deberían prohibir la IA fisionómica en los lugares de alojamiento público. También observamos la escasez de regímenes procesales y de gestión de la equidad, la responsabilidad y la transparencia en el tratamiento de la IA fisionómica y atendemos a posibles contraargumentos en apoyo de la IA fisionómica.

*** Translated with http://www.DeepL.com/Translator (free version) ***

La policía de Toronto utilizó el software de reconocimiento facial Clearview AI en 84 investigaciones

La policía de Toronto utilizó el software de reconocimiento facial Clearview AI para tratar de identificar a sospechosos, víctimas y testigos en 84 investigaciones criminales en los tres meses y medio que los agentes utilizaron la controvertida tecnología antes de que su jefe de policía lo descubriera y les ordenara parar.

Las revelaciones están contenidas en un documento interno de la policía obtenido recientemente por CBC News a través de una apelación a una solicitud de acceso a la información.

Entre octubre de 2019 y principios de febrero de 2020, los agentes subieron más de 2.800 fotos al software de la compañía estadounidense para buscar una coincidencia entre los tres mil millones de imágenes que Clearview AI extrajo de sitios web públicos, como Facebook e Instagram, para construir su base de datos.

La policía de Toronto admitió por primera vez que algunos de sus agentes utilizaron Clearview AI a mediados de febrero de 2020, un mes después de que el servicio negara haberlo utilizado. Sin embargo, hasta ahora no se habían dado detalles sobre cómo -y hasta qué punto- los agentes utilizaron el software de reconocimiento facial.

Ética de la vigilancia: aprovechamiento del uso detecnologías de reconocimiento facial en vivo en espacios públicosen espacios públicos para la aplicación de la ley

La dependencia de los datos es una de las características intrínsecas de la IA. Los datos personales son

para alimentar los conjuntos de datos utilizados para entrenar los sistemas de aprendizaje automático

y construir modelos algorítmicos. Una vez establecidos los modelos, se pueden

aplicarse a los datos personales y utilizarse para analizar o hacer inferencias y

predicciones sobre individuos concretos. Esto también se aplica a los sistemas de

sistemas de reconocimiento facial, lo que implica riesgos para varios derechos individuales

en particular, la privacidad. En este informe, enmarcamos la aplicación de estos sistemas

sistemas en el contexto particular de la vigilancia del espacio público por parte de las

público con fines policiales. La privacidad, el consentimiento y la

proporcionalidad son tres aspectos interrelacionados necesarios para describir la

ética de la vigilancia del espacio público y para considerar la aplicación responsable

la aplicación responsable de estos sistemas basados en la IA.

La IA no puede decir si estás mintiendo – cualquiera que diga lo contrario está vendiendo algo

https://thenextweb.com/news/ai-cant-tell-youre-lying-anyone-who-says-otherwise-selling-something

Otro día, otro estudio problemático sobre IA. El especial de aceite de serpiente de hoy llega a través de la Universidad de Tel Aviv, donde un equipo de investigadores ha dado a conocer un supuesto «sistema de detección de mentiras».

Seamos claros desde el principio: La IA no puede hacer nada que una persona, con el mismo tiempo de trabajo, no pueda hacer por sí misma. Y ningún ser humano puede saber si un ser humano está mintiendo. Y punto.

El hecho es que algunos de nosotros podemos decir cuando algunas personas están mintiendo algunas veces. Nadie puede decir cuando alguien está mintiendo todo el tiempo.

¿Matará Google a los bancos?

Cómo pueden los bancos competir con las grandes tecnologías

La universidad hace la siguiente afirmación a través de un comunicado de prensa:

Los investigadores de la Universidad de Tel Aviv detectaron el 73% de las mentiras de los participantes en el ensayo basándose en la contracción de sus músculos faciales, logrando una tasa de detección mayor que la de cualquier otro método conocido.

Es una afirmación realmente extraña. La idea de que una precisión del «73%» en la detección de mentiras es indicativa del éxito de un paradigma concreto es, como mínimo, discutible.

¿Qué es exactamente la precisión?

La suerte de base da a cualquier sistema capaz de elegir una probabilidad del 50/50. Y, tradicionalmente, ese es el rendimiento de los humanos a la hora de adivinar mentiras. Curiosamente, su rendimiento es mucho mayor cuando se trata de adivinar verdades. Algunos estudios afirman que los humanos alcanzan aproximadamente la misma «precisión» a la hora de determinar las declaraciones de la verdad que el «sistema de detección de mentiras» del equipo de Tel Aviv a la hora de determinar la veracidad.

El documento del equipo de la Universidad de Tel Aviv menciona incluso que los polígrafos no son admisibles en los tribunales porque no son fiables. Pero no señalan que los dispositivos poligráficos (que existen desde 1921) superan a su propio sistema en lo que se denomina «precisión»: los polígrafos tienen un promedio de precisión de entre el 80% y el 90% en los estudios.

Pero, de todos modos, analicemos en profundidad el estudio del equipo de Tel Aviv. El equipo comenzó con 48 participantes, 35 de los cuales fueron identificados como «mujeres». Seis participantes fueron eliminados por problemas técnicos, dos fueron descartados por «no mentir nunca» y uno participó en «sólo 40 de los 80 ensayos en los que no se presentaron incentivos monetarios».

Así pues, los datos de este estudio se generaron a partir de dos fuentes: un sistema de IA propio y 39-40 participantes humanos. De esos participantes, una abrumadora mayoría se identificó como «mujer», y no se menciona la diversidad racial, cultural o religiosa.

Además, la edad media de los participantes era de 23 años y no hay forma de determinar si el equipo tuvo en cuenta los antecedentes financieros, la salud mental o cualquier otro aspecto.

Todo lo que podemos decir es que un pequeño grupo de personas con una edad media de 23 años, en su mayoría «mujeres», se emparejaron para participar en este estudio.

También hubo una compensación. No sólo se les pagó por su tiempo, lo que es habitual en el mundo de la investigación académica, sino que también se les pagó por mentir con éxito a los humanos.

Eso es una bandera roja. No porque no sea ético pagar por los datos del estudio (no lo es). Sino porque se están añadiendo parámetros innecesarios para enturbiar intencionadamente o por ignorancia el estudio.

Los investigadores explican esto alegando que era parte del experimento para determinar si la incentivación cambiaba la capacidad de mentir de las personas.

Pero, con una muestra de estudio tan pequeña, parece ridículo atiborrar el experimento de parámetros innecesarios. Especialmente unos que están tan a medias que no podrían ser codificados sin datos sólidos de fondo.

*** Translated with http://www.DeepL.com/Translator (free version) ***

El uso de tecnologías biométricas para la lucha antiterrorista en un vacío de derechos humanos

En su informe analítico de diciembre de 2021 sobre la biometría y la lucha contra el terrorismo, la Dirección Ejecutiva del Comité contra el Terrorismo de las Naciones Unidas (CTED) señala cómo «el uso de la biometría con fines antiterroristas -sobre todo en el contexto de la gestión y la seguridad de las fronteras- se ha extendido cada vez más».

Esto no debería sorprender, dadas las repetidas resoluciones del Consejo de Seguridad de la ONU que imponen obligaciones legalmente vinculantes a todos los Estados miembros de la ONU para desarrollar tecnologías biométricas con fines antiterroristas, junto con la fuerte promoción de estas tecnologías por parte de algunos Estados, sobre todo occidentales, y de poderosos actores de la industria.

Tampoco es de extrañar, por las razones que se explican más adelante, que estas tecnologías biométricas se hayan desplegado muy a menudo en un vacío de derechos humanos, lo que ha suscitado previsibles y graves problemas de derechos humanos.

En mayo de 2021, Privacy International (donde trabajo) publicó tres estudios de casos, documentando las implicaciones para los derechos humanos del uso de tecnologías biométricas con fines antiterroristas en Afganistán, Israel/Palestina y Somalia. Aunque los contextos son diferentes, las principales tendencias son muy similares.

En primer lugar, las tecnologías biométricas, unidas a grandes bases de datos centralizadas, pueden socavar gravemente el derecho humano a la intimidad y tener un impacto irreversible en las personas. En este contexto, «rasgos físicos relativamente fijos e inmutables» -como las huellas dactilares- se convierten en «identificadores legibles por máquinas». Los expertos en derechos humanos se preguntan cada vez más si algunas de estas tecnologías, especialmente el reconocimiento facial en vivo en espacios públicos, pueden llegar a desplegarse de forma que no violen el derecho a la intimidad y otros derechos humanos, como la libertad de reunión pacífica, reconocidos en la Declaración Universal de Derechos Humanos y el Pacto Internacional de Derechos Civiles y Políticos.

En segundo lugar, existe un creciente peligro de «desviación de funciones», que definimos como «la ampliación gradual del uso de una tecnología más allá de su propósito original». En muchos casos recientes, las herramientas biométricas han sido reutilizadas desde los fines de seguridad nacional y lucha contra el terrorismo para ser utilizadas en la aplicación de medidas de emergencia en el contexto de la pandemia del COVID-19, pero sin un marco jurídico adecuado que regule su uso o la consideración de la necesidad y proporcionalidad de tales medidas. Las organizaciones de la sociedad civil llevan tiempo instando a los gobiernos a que reconozcan y aborden la proliferación de funciones de las tecnologías biométricas y su papel en la reducción del espacio cívico en todo el mundo.

En tercer lugar, «las tecnologías biométricas pueden exacerbar la exclusión y reproducir las desigualdades raciales, étnicas, de género, de clase social y otras». Tanto el Relator Especial de las Naciones Unidas sobre la promoción y protección de los derechos humanos y las libertades fundamentales en la lucha contra el terrorismo como el Relator Especial de las Naciones Unidas sobre las formas contemporáneas de racismo han puesto de relieve los efectos discriminatorios del uso de las tecnologías biométricas.

El organismo de control de datos advierte que Europa «no está preparada» para la vigilancia con IA

https://www.politico.eu/article/data-watchdog-europe-ai-surveillance-wojciech-wiewiorowski/
El responsable de velar por que las instituciones de la UE cumplan sus leyes de protección de datos cree que Europa no está preparada para la tecnología de reconocimiento facial que vigila a las personas en público.
La sociedad europea «no está preparada», dijo el Supervisor Europeo de Protección de Datos (SEPD) Wojciech Wiewiórowski en una entrevista con POLITICO. 
La tecnología y sus aplicaciones han dividido a Europa. La legislación sobre IA propuesta por la UE prohíbe la mayoría de las aplicaciones de la identificación biométrica remota, como el reconocimiento facial, en lugares públicos por parte de las fuerzas del orden, pero hace excepciones para la lucha contra los delitos «graves», entre los que podría estar el terrorismo.
Los defensores de esta tecnología, entre los que se encuentran las fuerzas del orden y algunos gobiernos preocupados por la seguridad, argumentan que la policía necesita la tecnología para atrapar a los delincuentes. Pero los activistas de la privacidad, algunos legisladores europeos y el propio Wiewiórowski abogan por una prohibición total.
El uso de la tecnología «convertiría a la sociedad, a nuestros ciudadanos, a los lugares en los que vivimos, en lugares en los que somos permanentemente reconocibles… No estoy seguro de que estemos realmente preparados como sociedad para eso». 
El organismo que dirige, el SEPD, es la autoridad interna de la UE en materia de protección de datos, y se encarga de que las propias agencias de la UE se atengan a las estrictas normas de privacidad del continente. También asesora a la Comisión Europea en sus iniciativas legislativas.
Wiewiórowski advirtió que permitir exenciones podría abrir la puerta a incluir todo tipo de vigilancia, incluido el reconocimiento emocional, y podría estar abierta también a las empresas privadas. 
«Muchos políticos creen que el uso de estas tecnologías debe permitirse para otras organizaciones, otras entidades, lo que me resulta un poco sorprendente», dijo Wiewiórowski. 
Ser más específicosWiewiórowski también señaló que los legisladores europeos aún no han definido lo que entienden por inteligencia artificial que quieren regular, un factor que podría influir significativamente en qué empresas y aplicaciones se regulan.
Los países de la UE se han hecho eco de este llamamiento y también han buscado definiciones más claras sobre el tipo de inteligencia artificial que entraría en el ámbito de aplicación de la ley de la UE. Dinamarca, Francia, Italia y otros países se han quejado de que la Ley de Inteligencia Artificial es demasiado amplia y corre el riesgo de enredar los modelos estadísticos básicos en una pesada reglamentación.
En referencia a la amplitud de la legislación, Wiewiórowski dijo: «Estamos utilizando la noción de marketing de la inteligencia artificial para las tecnologías y sabiendo que la mayoría de estas tecnologías no son realmente tan inteligentes».*** Translated with http://www.DeepL.com/Translator (free version) ***

Reconocimiento facial en las escuelas: sistemas desplegados en Europa y Estados Unidos en medio de la preocupación por la privacidad

Los nuevos sistemas de reconocimiento facial se están desplegando en los campus escolares de todo el mundo, mientras que otros se están retirando por motivos de privacidad. En Rusia, decenas de colegios están probando esta tecnología, mientras que en North Ayrshire (Reino Unido) se han suspendido pruebas similares después de que los activistas hicieran intervenir al organismo de control de la privacidad de datos del país. Además, los sistemas de biometría facial de PontoiD se han implantado en dos colegios de Brasil, y la Universidad de Wisconsin-Madison ha renovado recientemente su contrato de software de supervisión de exámenes con Honorlock.

Las escuelas rusas prueban el control de acceso biométrico

Según el director general de NtechLab, Andrei Telenkov, varias escuelas del país han estado probando el reconocimiento facial, especialmente para el control de acceso.

«Hemos estado trabajando con varias docenas de escuelas, incluso en el Lejano Oriente», explicó.

«Las llamadas listas negras se emplean en las escuelas para que las personas buscadas por las autoridades o potencialmente peligrosas no puedan entrar en el recinto por ningún medio», dijo.

Telenkov también dijo que, aunque algunos padres se opusieron al despliegue de la tecnología, la recogida de datos de «siluetas y acciones» del sistema de vigilancia se realizó de forma anónima.

La tecnología de biometría facial de NtechLab también se implantó recientemente en el metro de Moscú.

Los colegios del Reino Unido cancelan los proyectos piloto de reconocimiento facial

Nueve colegios del norte de Ayrshire (Escocia) pusieron en marcha la semana pasada un sistema piloto de biometría facial para que los alumnos pudieran pagar sus almuerzos sin contacto.

La tecnología fue proporcionada por CRB Cunninghams, una empresa de restauración sin dinero en efectivo, que también está detrás del despliegue de sistemas de reconocimiento facial en otras escuelas del Reino Unido.

Ahora, al menos dos de ellos están dando marcha atrás en sus planes de utilizar esta tecnología, según informa Schools Week, optando en su lugar por la biometría de las huellas dactilares.

La decisión se tomó después de que los defensores de la privacidad hicieran que la Oficina del Comisario de Información del Reino Unido (ICO) se pronunciara al respecto.

«Las organizaciones deben considerar cuidadosamente la necesidad y la proporcionalidad de la recogida de datos biométricos antes de hacerlo», dijo la ICO.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Vigilancia de los rostros: el presente y el futuro de la vigilancia facial inteligente

https://www.tandfonline.com/doi/full/10.1080/13600834.2021.1994220

En este artículo, analizamos los usos presentes y futuros de la vigilancia facial inteligente (IFS) en las fuerzas del orden. Presentamos un estudio de caso empírico y centrado en la ley sobre las tecnologías de reconocimiento facial automatizado (LFR) en vivo en la policía británica. En la primera parte, analizamos las opiniones de 26 agentes de policía de primera línea que exploran sus preocupaciones y su escepticismo actual sobre el LFR. Analizamos la reciente jurisprudencia del Reino Unido sobre el uso de LFR por parte de la policía, que plantea problemas en relación con los derechos humanos, la protección de datos y las leyes contra la discriminación. En la segunda parte, examinamos el optimismo de los agentes de primera línea sobre los usos futuros de la LFR y exploramos las formas emergentes de IFS, en concreto las tecnologías de IA emocional (EAI). Una de las principales novedades de este artículo es nuestro análisis sobre cómo el Reglamento de la UE sobre IA (AIR) dará forma a los futuros usos de las SFI en el ámbito policial. El AIR convierte la LFR en una forma prohibida de IA y el uso de EAI por parte de las fuerzas de seguridad se regulará como IA de alto riesgo que debe cumplir con nuevas normas y requisitos de diseño. La Parte III presenta una serie de 10 lecciones prácticas, extraídas de nuestras reflexiones sobre las perspectivas jurídicas y empíricas. Su objetivo es informar sobre cualquier uso futuro de la IAI por parte de las fuerzas del orden en el Reino Unido y fuera de él.

Inteligencia artificial fisiognómica

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3927300

La reanimación de las pseudociencias de la fisiognomía y la frenología a escala mediante la visión por ordenador y el aprendizaje automático es un asunto de urgente preocupación. Este artículo, que contribuye a los estudios de datos críticos, a la ley de protección del consumidor, a la ley de privacidad biométrica y a la ley antidiscriminación, se esfuerza por conceptualizar y problematizar la inteligencia artificial (IA) fisionómica y ofrecer recomendaciones políticas para que los legisladores estatales y federales eviten su proliferación.

La IA fisiognómica, sostenemos, es la práctica de utilizar programas informáticos y sistemas relacionados para inferir o crear jerarquías de la composición corporal de un individuo, el estatus de clase protegida, el carácter percibido, las capacidades y los futuros resultados sociales basados en sus características físicas o de comportamiento. Las lógicas fisiognómicas y frenológicas son intrínsecas al mecanismo técnico de la visión por ordenador aplicada a los seres humanos. En este artículo, observamos cómo la visión por ordenador es un vector central para las tecnologías de IA fisiognómica, desgranando cómo la visión por ordenador reanima la fisiognomía en su concepción, forma y práctica y los peligros que esta tendencia presenta para las libertades civiles.

Este artículo aboga por la adopción de medidas legislativas para prevenir y frenar la proliferación de la IA fisionómica. Para ello, consideramos un posible menú de salvaguardias y limitaciones para limitar significativamente el despliegue de los sistemas de IA fisionómica, que esperamos pueda utilizarse para reforzar la legislación local, estatal y federal. En primer lugar, proponemos la abolición de la IA fisionómica. A partir de ahí, planteamos los regímenes de la ley de protección del consumidor de Estados Unidos, la ley de privacidad biométrica y la ley de derechos civiles como vehículos para rechazar el renacimiento digital de la inteligencia artificial fisonómica. En concreto, argumentamos que la IA fisiognómica debería rechazarse categóricamente por ser opresiva e injusta. En segundo lugar, argumentamos que los legisladores deberían declarar la IA fisionómica como injusta y engañosa per se. En tercer lugar, sostenemos que los legisladores deberían promulgar o ampliar las leyes de privacidad biométrica para prohibir la IA fisionómica. En cuarto lugar, sostenemos que los legisladores deberían prohibir la IA fisionómica en los lugares de alojamiento público. También observamos la escasez de regímenes procesales y de gestión de la equidad, la responsabilidad y la transparencia en el tratamiento de la IA fisionómica y atendemos a posibles contraargumentos en apoyo de la IA fisionómica.

*** Translated with http://www.DeepL.com/Translator (free version) ***