El falso consuelo de la supervisión humana como antídoto contra la I.A. Dañar

https://slate.com/technology/2021/06/human-oversight-artificial-intelligence-laws.html

En abril, la Comisión Europea publicó una propuesta de reglamento de amplio alcance para regular el diseño, desarrollo y despliegue de A.I. sistemas. El reglamento estipula que “la I.A. de alto riesgo. sistemas ”(como el reconocimiento facial y los algoritmos que determinan la elegibilidad para los beneficios públicos) deben diseñarse para permitir la supervisión por parte de humanos, quienes tendrán la tarea de prevenir o minimizar los riesgos. A menudo expresado como la solución «humana en el circuito», este enfoque de supervisión humana sobre la I.A. se está convirtiendo rápidamente en un elemento básico en A.I. propuestas de políticas a nivel mundial. Y aunque colocando a los humanos de nuevo en el «bucle» de la I.A. Parece tranquilizador, este enfoque es, en cambio, «descabellado» en un sentido diferente: se basa en una lógica circular que ofrece una falsa comodidad y distrae de los usos inherentemente dañinos de los sistemas automatizados.

ANUNCIO PUBLICITARIO

AI. se celebra por su precisión, eficiencia y objetividad superiores en comparación con los humanos. Sin embargo, a medida que la evidencia creciente demuestra los peligros de la inteligencia artificial, los legisladores y los desarrolladores se están volviendo hacia los humanos para mitigar el daño. En otras palabras, los humanos tienen la tarea de supervisar algoritmos que se implementaron con la promesa de aumentar las deficiencias humanas. La ley de reconocimiento facial del estado de Washington de 2020, por ejemplo, incluye requisitos para una «revisión humana significativa», definida en términos de «revisión o supervisión por una o más personas … que tienen la autoridad para modificar la decisión bajo revisión». Varias contrataciones de A.I. las empresas anuncian la intervención humana en el proceso de selección de candidatos como una forma de prevenir los errores y los resultados discriminatorios asociados con estas herramientas. Y la reacción a las vidas perdidas en accidentes que involucran a vehículos autónomos ha provocado crecientes llamamientos para reafirmar el control humano.

ANUNCIO PUBLICITARIO

Pero la supervisión humana se queda corta como solución para los riesgos de la toma de decisiones algorítmica por tres razones clave. En primer lugar, la sola solicitud de supervisión humana crea una protección superficial que las empresas y los gobiernos pueden evitar fácilmente de manera superficial. El Reglamento general europeo de protección de datos, por ejemplo, establece que las personas «tendrán derecho a no estar sujetas a una decisión basada únicamente en el procesamiento automatizado». Aunque a primera vista esto parecería evitar los daños de las decisiones de alto riesgo tomadas por máquinas opacas, configurar el sistema binario de decisiones “únicamente” automatizadas frente a las tomadas por humanos oscurece la realidad de que la mayoría de la inteligencia artificial. los sistemas se encuentran en un continuo entre los dos. Aunque los titulares a menudo enfatizan la injusticia de las decisiones que toman las máquinas, en la práctica es poco común que los algoritmos, particularmente en entornos de alto riesgo como la justicia penal y el bienestar infantil, operen sin la participación humana y sin que una persona tome la decisión final.

ANUNCIO PUBLICITARIO

Además, la mera presencia de un operador humano proporciona poca protección contra formas de toma de decisiones automatizadas que son intrusivas, opacas o defectuosas y, en cambio, pueden servir sólo para legitimarlas. Al menos según la letra de las leyes que impiden “únicamente” decisiones automatizadas, cualquier forma nominal de participación humana es suficiente para evitar restricciones y protecciones. Por lo tanto, disposiciones como el GDPR pueden crear un incentivo para introducir una supervisión humana superficial de las decisiones automatizadas (por ejemplo, decisiones automatizadas de «sello de goma») como una forma de evitar el escrutinio.

En segundo lugar, incluso los llamamientos a formas más «significativas» de supervisión humana, que están ganando terreno como una forma de explicar el primer problema que acabamos de describir, son increíblemente difíciles de lograr en la práctica. Un desafío importante es que este principio adolece de una “imprecisión inherente”: si bien un operador humano que marca las decisiones algorítmicas claramente no es significativo, no existe una definición clara con respecto a lo que realmente constituye una supervisión “significativa”. Además, la creciente investigación demuestra que incluso cuando a los humanos se les otorga una discreción «significativa» sobre cómo usar la IA, no están dispuestos o no pueden intervenir para equilibrar adecuadamente los conocimientos humanos y algorítmicos. Las personas que reciben consejos de herramientas automatizadas son propensas al «sesgo de automatización» (a través del cual se someten al sistema automatizado sin un escrutinio adecuado), luchan por evaluar la calidad del consejo algorítmico, a menudo descartan recomendaciones algorítmicas precisas y exhiben sesgos raciales en sus respuestas a algoritmos.

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Crea tu sitio web con WordPress.com
Comenzar
A %d blogueros les gusta esto: