Estamos fallando en la ética de la IA. Así es como conseguimos un impacto real

https://www.weforum.org/agenda/2022/01/we-re-failing-at-the-ethics-of-ai-here-s-why/

En los últimos años ha surgido una oleada de principios y orientaciones para apoyar el desarrollo y el uso responsable de la IA, sin que se hayan producido cambios significativos.

Para lograr un impacto, debemos profundizar en tres cuestiones principales:

1. Ampliar los diálogos existentes en torno a la ética y las normas de circulación de la IA.

La conversación sobre la IA y la ética debe abrirse de par en par para comprender las sutilezas y el ciclo de vida de los sistemas de IA y sus impactos en cada etapa.

Con demasiada frecuencia, estas conversaciones carecen de un alcance suficiente y se centran únicamente en las etapas de desarrollo y despliegue del ciclo de vida, aunque muchos de los problemas se producen durante las primeras etapas de conceptualización, investigación y diseño.

O bien, no comprenden cuándo y si un sistema de IA funcionará en la fase de madurez necesaria para evitar el fracaso dentro de los sistemas adaptativos complejos.

Otro problema es que las empresas y las partes interesadas pueden centrarse en el teatro de la ética, aparentando promover la IA para el bien mientras ignoran aspectos que son más fundamentales y problemáticos. Esto se conoce como «lavado de ética», o la creación de una sensación superficialmente tranquilizadora pero ilusoria de que las cuestiones éticas se están abordando para justificar el avance de los sistemas que terminan profundizando los patrones problemáticos.

Deje que la transparencia dicte la ética. Hay muchas compensaciones y zonas grises en esta conversación. Inclinémonos hacia esas complejas zonas grises.

Mientras que el «discurso ético» a menudo consiste en subrayar las diferentes compensaciones que corresponden a los distintos cursos de acción, la verdadera supervisión ética se basa en abordar lo que no se está acomodando a las opciones seleccionadas.

Esta parte vital -y a menudo pasada por alto- del proceso es un obstáculo para quienes tratan de abordar la ética de la IA.

2. Los discursos sobre la ética de la IA no se traducen en acciones significativas.

Con demasiada frecuencia, los responsables del desarrollo, la integración y el despliegue de los sistemas de IA no comprenden cómo funcionan o qué potencial pueden tener para cambiar el poder, perpetuar las desigualdades existentes y crear otras nuevas.

La exageración de las capacidades de la IA es un problema bien conocido en la investigación de la IA y el aprendizaje automático, y ha conducido a una complacencia hacia la comprensión de los problemas reales para los que han sido diseñados, así como a la identificación de problemas potenciales en la fase posterior. La creencia de que un sistema de IA incompetente e inmaduro una vez desplegado puede ser remediado por un humano en el bucle o la suposición de que existe un antídoto, especialmente compatible con la ciberseguridad, es una ilusión errónea y potencialmente peligrosa.

Vemos esta falta de comprensión demostrada en nuestros responsables de la toma de decisiones, que caen en una narrativa miope y determinista de la tecnología y aplican enfoques solucionistas y de optimización de la tecnología a los desafíos globales, industriales y sociales. A menudo están cegados por lo que se ofrece en lugar de centrarse en lo que el problema realmente requiere.

Para tener una verdadera comprensión de la ética de la IA, tenemos que escuchar a un elenco mucho más inclusivo de expertos y partes interesadas, incluidos aquellos que comprenden las posibles consecuencias y limitaciones de la IA, como el impacto ambiental de los recursos necesarios para construir, entrenar y ejecutar un sistema de IA, su interoperabilidad con otros sistemas y la viabilidad de interrumpir de forma segura un sistema de IA.

3. El diálogo sobre la IA y la ética se limita a la torre de marfil.

Conceptos como ética, igualdad y gobernanza pueden considerarse elevados y abstractos. Tenemos que basar la conversación sobre la IA en el discernimiento de la responsabilidad y la culpabilidad significativas.

Cualquiera que suponga que los sistemas de IA son apolíticos por naturaleza se equivoca, especialmente cuando los sistemas se ven inmersos en situaciones o se enfrentan a tareas para las que no fueron creados o entrenados.

Las desigualdades estructurales son habituales, como en los algoritmos de predicción utilizados en la policía, que a menudo están claramente sesgados. Además, las personas más vulnerables a las consecuencias negativas no suelen estar capacitadas para participar.

Parte de la solución y del reto consiste en encontrar un lenguaje compartido para reconceptualizar la ética de las tensiones y compensaciones desconocidas e implícitas. Las transformaciones tecnológicas a gran escala siempre han provocado profundos cambios sociales, económicos y políticos, y siempre ha llevado tiempo averiguar cómo hablar de ello públicamente y establecer prácticas seguras y éticas.

Sin embargo, estamos presionados por el tiempo.

Trabajemos juntos para replantear la ética para la era de la información y superar el pensamiento aislado con el fin de fortalecer la inteligencia y el discurso lateral y científico. Nuestro único camino viable es una ética práctica y participativa, que garantice la transparencia, atribuya responsabilidades y evite que la IA se utilice de forma que dicte normas y cause potencialmente graves daños.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Crea tu sitio web con WordPress.com
Comenzar
A %d blogueros les gusta esto: