Ética como servicio: una operacionalización pragmática de la ética de la IA

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3784238

A medida que ha aumentado la gama de usos potenciales de la inteligencia artificial (IA), en particular el aprendizaje automático (ML), también lo ha hecho la conciencia de los problemas éticos asociados. Esta mayor conciencia ha llevado a la comprensión de que la legislación y la reglamentación existentes brindan una protección insuficiente a las personas, los grupos, la sociedad y el medio ambiente de los daños de la IA. En respuesta a esta constatación, ha habido una proliferación de códigos, directrices y marcos de ética basados ​​en principios. Sin embargo, cada vez está más claro que existe una brecha significativa entre la teoría de los principios éticos de la IA y el diseño práctico de los sistemas de IA. En trabajos anteriores, analizamos si es posible cerrar esta brecha entre el «qué» y el «cómo» de la ética de la IA mediante el uso de herramientas y métodos diseñados para ayudar a los desarrolladores, ingenieros y diseñadores de IA a llevar los principios a la práctica. Concluimos que este método de cierre es actualmente ineficaz ya que casi todas las herramientas y métodos de traducción existentes son demasiado flexibles (y por lo tanto vulnerables al lavado ético) o demasiado estrictos (no responden al contexto). Esto planteó la pregunta: si, incluso con orientación técnica, la ética de la IA es un desafío para integrarla en el proceso de diseño algorítmico, ¿se vuelve inútil todo el esfuerzo de diseño pro-ético? Y, en caso negativo, ¿cómo se puede hacer que la ética de la IA sea útil para los profesionales de la IA? Esta es la pregunta que buscamos abordar aquí explorando por qué los principios y las herramientas técnicas de traducción siguen siendo necesarios, incluso si son limitados, y cómo estas limitaciones pueden superarse potencialmente proporcionando una base teórica de un concepto que se ha denominado ‘Ética como servicio. .

Abriendo el camino a la ética en inteligencia artificial

https://link.springer.com/article/10.1007/s43681-020-00031-2

En un intento por abordar los desafíos éticos en la IA, actualmente contamos con varios marcos éticos de IA en todo el mundo, y cada día se lanzan o se desarrollan más en todo el mundo. Desde las Directrices de la Comisión Europea para una IA confiable hasta los Principios de IA de Asilomar, el mensaje suele ser similar: más transparencia y explicabilidad. Sin embargo, navegar por la amplia cantidad de recursos disponibles actualmente no es un proceso simple. Entonces, ¿cómo encontramos un terreno común en lo que respecta a la ética en la IA?

En muchos aspectos, la inteligencia artificial (IA) todavía se encuentra en su juventud y los avances recientes solo han sido posibles debido a los grandes aumentos en el volumen de datos. Aunque lento en comparación con algunas de las primeras predicciones, el campo de la IA ha logrado avances sorprendentes recientemente. Muchos expertos sostienen que es probable que veamos avances significativos en algún momento de este siglo, posiblemente alcanzando un nivel de inteligencia artificial general [1]. Otros creen que todavía estamos lejos de este ideal:

Llegar a ese nivel de inteligencia artificial de propósito general con la flexibilidad de la inteligencia humana no es un pequeño paso desde donde estamos ahora; en cambio, requerirá una inmensa cantidad de progreso fundamental, no solo más del mismo tipo de cosas que se han logrado en los últimos años, sino, como mostraremos, algo completamente diferente [2].

Si bien se ha dicho que, en lo que respecta a la inteligencia artificial, hasta ahora solo hemos arañado la superficie, también podemos ver cómo estos desarrollos relativamente pequeños ya se han hecho eco de cambios drásticos de manera significativa: sociales, éticos y políticos.

El debate ético no es nuevo [3]; sin embargo, a medida que estos desarrollos se desarrollan a un ritmo más rápido, el momento exige debates más concretos sobre la ética de la IA a nivel mundial.

En un intento por abordar algunos de estos desafíos, actualmente contamos con varios marcos éticos de IA en todo el mundo, y cada día se lanzan o se desarrollan más en todo el mundo. Desde las Directrices de la Comisión Europea para una IA confiable, hasta los Principios de IA de Asilomar, el mensaje suele ser similar: más transparencia y explicabilidad. Sin embargo, navegar por la amplia cantidad de recursos disponibles actualmente no es un proceso simple. Más importante aún, cuando se trata de construir IA, estamos lejos de la práctica de estos ideales. Todavía no existe una discusión común o unificadora sobre cómo gobernar la ética en las implementaciones de IA, o la auditabilidad en curso una vez que el aprendizaje automático está mejorando sin intervención humana.

En un artículo reciente [4], el autor se refiere a este problema como “proliferación de principios”. Hay demasiados marcos diferentes disponibles, que no solo dificultan la navegación a través de ellos, sino que también abre una oportunidad para elegir cuando no debería haber uno.

Además, en un estudio reciente [5], los investigadores encontraron que la efectividad de las pautas éticas o códigos éticos es casi nula y que no cambian el comportamiento de los profesionales de la comunidad tecnológica.

Más importante:

La investigación ética también requiere internalizar un compromiso con ella, con la ayuda de capacitación y educación sobre códigos y métodos de investigación adecuados, tutorías y culturas en el lugar de trabajo que fomenten la ética, la transparencia sobre cómo se llevó a cabo la investigación y foros (en persona y por escrito, locales e internacionales). ) donde los investigadores pueden compartir sus experiencias y los desafíos que enfrentan ”. [6]

Los marcos éticos voluntarios no protegerán contra el sesgo algorítmico

El «optimismo tecnológico ingenuo» que asume que las nuevas tecnologías darán como resultado resultados sociales positivos ya no es aceptable, dijo el Dr. Kanta Dihal, investigador e investigador de Global AI Narratives en el Leverhulme Center for the Future of Intelligence de la Universidad de Cambridge en Digital Ethics Summit 2020, organizado por el organismo comercial techUK.

En este entorno, las empresas y las organizaciones gubernamentales deben garantizar que el uso de la IA sea justo y equitativo. Los marcos éticos, mediante los cuales las organizaciones o industrias definen y se comprometen con comportamientos éticos, son herramientas importantes para ayudarlas a lograrlo.

«Las empresas no deberían crear IA a menos que tengan un marco y un modelo de gobierno para llegar a eso en solo un segundo en torno a la creación de la IA», dijo Allyn L Shaw, presidente y director de tecnología de Recycle Track Systems, en Digital Cumbre de Ética. «Ese modelo de gobernanza significa que debe tener personas representadas y el conjunto de datos de personas que espera que la IA participe representada en ese proceso de diseño».

Ejemplos de tales marcos incluyen el Modelo de Marco de Gobernanza de IA de Singapur o el bautizadi como el inversor estadounidense Stephen Schwarzman para crear un «marco para abordar los impactos y la ética» de la IA.

Sin embargo, existe escepticismo de que estos marcos sean suficientes para evitar que las empresas utilicen la IA de formas discriminatorias pero potencialmente rentables. Sin responsabilidad, los marcos voluntarios son solo un pedazo de papel, dijo en la cumbre Renée Cummings, activista de datos residente en la Escuela de Ciencia de Datos de la Universidad de Virginia y académica comunitaria de la Universidad de Columbia.

“Algunos de los mejores diseñadores de estas regulaciones y marcos también son algunos de los mayores perpetradores de comportamiento poco ético, como hemos visto en los últimos tiempos”, dijo Cummings. “Hasta hace poco, vimos que las principales compañías de automóviles publicaban marcos éticos sobre cómo deberían operar los vehículos autónomos. Pero, de nuevo, es porque están perpetrando las mismas cosas contra las que están hablando «.

En cambio, argumentó Cummings, las organizaciones deben ser legalmente responsables por el uso de IA.

https://techmonitor.ai/ai/voluntary-frameworks-will-not-protect-against-ai-bias

Reflexiones sobre IA

 Una de las cuestiones más críticas es la controvertida y muy relación crítica entre el tema de la confianza y la IA

https://ieai.mcts.tum.de/wp-content/uploads/2020/11/Reflections-on-AI-Ethics_MarisaTschopp_Final1.pdf

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


 

UK Data Ethics Framework

 Orientación para las organizaciones del sector público sobre cómo utilizar los datos de manera adecuada y responsable al planificar, implementar y evaluar una nueva política o servicio.

https://www.gov.uk/government/publications/data-ethics-framework

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Los principios por sí solos no pueden garantizar una IA ética

La ética de la IA se ha abordado desde un ángulo de principios desde los albores de la práctica, inspirándose en los 4 principios éticos básicos del campo de la ética médica. Sin embargo, este artículo aboga por cómo la ética de la inteligencia artificial no puede abordarse de la misma manera que la profesión de ética médica. El documento basa este argumento en 4 aspectos diferentes del campo de la ética médica de los que carece su contraparte de IA, pasando de la desalineación de los valores en el campo, a la falta de antecedentes establecidos para recurrir, a la responsabilidad y más. Luego, el documento concluye ofreciendo algunas formas de avanzar en el campo de Ética de la IA, enfatizando cómo la ética es un proceso y no un destino. Traducir los elevados principios en convenciones accionables ayudará a comprender los verdaderos desafíos que enfrenta la ética de la inteligencia artificial, en lugar de tratarla como algo que debe «resolverse».

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.
Crea tu sitio web con WordPress.com
Comenzar