La ONU pide una moratoria sobre el uso de la IA que pone en peligro los derechos humanos

https://www.washingtonpost.com/politics/un-urges-moratorium-on-use-of-ai-that-imperils-human-rights/2021/09/15/a706e96a-1618-11ec-a019-cb193b28aa73_story.html

La jefa de derechos humanos de la ONU pide una moratoria sobre el uso de tecnología de inteligencia artificial que suponga un grave riesgo para los derechos humanos, incluidos los sistemas de escaneo facial que rastrean a las personas en espacios públicos.

Michelle Bachelet, Alta Comisionada de las Naciones Unidas para los Derechos Humanos, también dijo el miércoles que los países deberían prohibir expresamente las aplicaciones de IA que no cumplan con la legislación internacional sobre derechos humanos.

Entre las aplicaciones que deberían prohibirse se encuentran los sistemas gubernamentales de «puntuación social» que juzgan a las personas en función de su comportamiento y ciertas herramientas basadas en la IA que clasifican a las personas en grupos, como por ejemplo, por etnia o género.

Las tecnologías basadas en la IA pueden ser una fuerza para el bien, pero también pueden «tener efectos negativos, incluso catastróficos, si se utilizan sin tener suficientemente en cuenta cómo afectan a los derechos humanos de las personas», dijo Bachelet en un comunicado.

Sus comentarios se produjeron junto con un nuevo informe de la ONU que examina cómo los países y las empresas se han apresurado a aplicar sistemas de IA que afectan a la vida y los medios de subsistencia de las personas sin establecer las salvaguardias adecuadas para evitar la discriminación y otros daños.

«No se trata de no tener IA», dijo a los periodistas Peggy Hicks, directora de compromisos temáticos de la oficina de derechos, al presentar el informe en Ginebra. «Se trata de reconocer que si la IA se va a utilizar en estas áreas de función de los derechos humanos -muy críticas-, tiene que hacerse de la manera correcta. Y sencillamente aún no hemos puesto en marcha un marco que garantice que así sea».

Bachelet no pidió la prohibición total de la tecnología de reconocimiento facial, pero dijo que los gobiernos deberían detener el escaneo de los rasgos de las personas en tiempo real hasta que puedan demostrar que la tecnología es precisa, no discrimina y cumple ciertas normas de privacidad y protección de datos.

Aunque en el informe no se mencionan los países por su nombre, China ha sido uno de los que ha desplegado la tecnología de reconocimiento facial, especialmente para la vigilancia en la región occidental de Xinjiang, donde viven muchos de sus uigures minoritarios. Los principales autores del informe dijeron que nombrar a países concretos no formaba parte de su mandato y que hacerlo podría ser incluso contraproducente.

«En el contexto chino, como en otros contextos, nos preocupa la transparencia y las aplicaciones discriminatorias que se dirigen a comunidades concretas», dijo Hicks.

Citó varios casos judiciales en Estados Unidos y Australia en los que la inteligencia artificial se había aplicado de forma errónea.

El informe también expresa su desconfianza ante las herramientas que intentan deducir los estados emocionales y mentales de las personas mediante el análisis de sus expresiones faciales o movimientos corporales, afirmando que dicha tecnología es susceptible de sesgos e interpretaciones erróneas y carece de base científica.

«El uso de sistemas de reconocimiento de emociones por parte de las autoridades públicas, por ejemplo para seleccionar a personas para paradas o detenciones policiales o para evaluar la veracidad de las declaraciones durante los interrogatorios, corre el riesgo de socavar los derechos humanos, como el derecho a la intimidad, a la libertad y a un juicio justo», dice el informe.

Las recomendaciones del informe se hacen eco de las ideas de muchos líderes políticos de las democracias occidentales, que esperan aprovechar el potencial económico y social de la IA al tiempo que abordan la creciente preocupación por la fiabilidad de las herramientas que pueden rastrear y perfilar a las personas y hacer recomendaciones sobre quiénes tienen acceso a puestos de trabajo, préstamos y oportunidades educativas.

Los reguladores europeos ya han tomado medidas para frenar las aplicaciones de IA más arriesgadas. Las normas propuestas por los funcionarios de la Unión Europea este año prohibirían algunos usos de la IA, como el escaneo en tiempo real de los rasgos faciales, y controlarían estrictamente otros que podrían amenazar la seguridad o los derechos de las personas.

La administración del Presidente de Estados Unidos, Joe Biden, ha expresado preocupaciones similares, aunque todavía no ha esbozado un enfoque detallado para reducirlas. Un grupo de reciente creación llamado Consejo de Comercio y Tecnología, dirigido conjuntamente por funcionarios estadounidenses y europeos, ha tratado de colaborar en el desarrollo de normas compartidas para la IA y otras políticas tecnológicas.

Los esfuerzos por limitar los usos más arriesgados de la IA han sido respaldados por Microsoft y otros gigantes tecnológicos estadounidenses que esperan orientar las normas que afectan a la tecnología. Microsoft ha colaborado con la oficina de derechos de la ONU y le ha proporcionado fondos para ayudar a mejorar su uso de la tecnología, pero la financiación del informe se ha realizado con el presupuesto ordinario de la oficina de derechos, dijo Hicks.

Los países occidentales han estado a la vanguardia de la expresión de su preocupación por el uso discriminatorio de la IA.

«Si se piensa en las formas en que la IA podría utilizarse de forma discriminatoria fa

*** Translated with http://www.DeepL.com/Translator (free version) ***

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Crea tu sitio web con WordPress.com
Comenzar
A %d blogueros les gusta esto: