Los principios por sí solos no pueden garantizar una IA ética

La ética de la IA es ahora un tema de debate mundial en los círculos académicos y políticos. Al menos 84 iniciativas público-privadas

han elaborado declaraciones que describen principios, valores y otros principios de alto nivel para guiar el desarrollo

desarrollo, despliegue y gobernanza de la IA. Según recientes meta-análisis, la ética de la IA parece haber convergido

convergido en un conjunto de principios que se parecen mucho a los cuatro principios clásicos de la ética médica. A pesar de la

A pesar de la credibilidad inicial concedida a un enfoque basado en principios de la ética de la IA por la conexión con los principios de la ética médica,

hay razones para preocuparse por su futuro impacto en el desarrollo y la gobernanza de la IA. Existen diferencias significativas entre la medicina y el desarrollo de la IA en

Existen diferencias significativas entre la medicina y el desarrollo de la IA que sugieren que un enfoque basado en principios en esta última puede no

que un enfoque basado en principios en esta última podría no tener un éxito comparable al de la primera. En comparación con la medicina, el desarrollo de la IA carece de (1) objetivos comunes y

objetivos comunes y deberes fiduciarios, (2) historia y normas profesionales, (3) métodos probados para llevar los principios a la práctica, y

(4) mecanismos sólidos de responsabilidad legal y profesional. Estas diferencias sugieren que todavía no debemos

celebrar el consenso en torno a principios de alto nivel que esconden un profundo desacuerdo político y normativo.

¿POR QUÉ LAS EMPRESAS TIENEN PROBLEMAS CON LA INTELIGENCIA ARTIFICIAL ÉTICA?

https://news.northeastern.edu/2021/09/23/ethical-artificial-intelligence/
Algunas de las organizaciones más importantes del mundo, desde las Naciones Unidas hasta Google y el Departamento de Defensa de Estados Unidos, proclaman con orgullo su buena fe en lo que respecta al uso ético de la inteligencia artificial.
Pero para muchas otras organizaciones, hablar por hablar es la parte fácil. Un nuevo informe elaborado por un par de investigadores del Northeastern analiza cómo la articulación de los valores, los conceptos éticos y los principios es sólo el primer paso para abordar los desafíos de la IA y la ética de los datos. El trabajo más difícil es pasar de las promesas vagas y abstractas a los compromisos sustantivos que guían la acción y son medibles.
«Se ve un caso tras otro en el que una empresa tiene estas declaraciones de misión que no cumplen», dice John Basl, profesor asociado de filosofía y coautor del informe. «Su intento de hacer ética se desmorona».
ronald sandler y john basl hablan de la inteligencia artificial éticaUna nueva investigación de los profesores de Northeastern Ronald Sandler (izquierda) y John Basl (derecha) recomienda una normativa federal para ayudar a las empresas a articular sus valores y su ética con su software de inteligencia artificial. Foto de Matthew Modoono/Northeastern University
Según el informe, publicado en colaboración con el Atlantic Council, un centro de estudios no partidista de Washington, las promesas de las empresas sin una ejecución adecuada no son más que tópicos y un «lavado de cara a la ética». Las conclusiones se debatirán entre los autores y otros ponentes en un acto virtual que tendrá lugar el 23 de septiembre a mediodía, hora del este.
El informe recomienda una mayor transparencia para ayudar a los ciudadanos a entender cómo y por qué se toman las decisiones de IA sobre ellos. «Si me deniegan un préstamo y no puedo averiguar qué causó esa decisión, entonces no sé qué hacer para futuras solicitudes de préstamos», explica Basl. «La transparencia es importante».
El desarrollo y el uso éticamente problemáticos de la IA y el big data continuarán, y el sector será visto por los responsables políticos, los empleados, los consumidores, los clientes y el público como un fracaso en el cumplimiento de sus propios compromisos declarados, añade el informe.
La mayoría de las empresas tienen buenas intenciones y han hecho un buen trabajo de desarrollo de métricas formales para los puntos de referencia, como la equidad y la parcialidad, pero no son realmente capaces de determinar cuál de ellos va a cumplir sus objetivos, dice Basl.
«Una de las cosas que pretende hacer este informe es obligar a las empresas a reflejar de forma cohesionada sus valores en lugar de tratar de elegir», afirma. «No les dice cómo hacer ninguna cosa en particular, pero les proporciona un proceso por el que tienen que pasar si quieren realizar sinceramente sus valores».*** Translated with http://www.DeepL.com/Translator (free version) ***

Sobre la posición moral socio-relacional de la IA: un estudio empírico con arte generado por IA

https://www.frontiersin.org/articles/10.3389/frobt.2021.719944/full

La posición moral de los robots y los sistemas de inteligencia artificial (IA) se ha convertido en un tema ampliamente debatido por la investigación normativa. Sin embargo, este debate se ha centrado principalmente en los sistemas desarrollados para funciones sociales, por ejemplo, los robots sociales. Dada la creciente interdependencia de la sociedad con las máquinas no sociales, se ha hecho imperativo examinar cómo las reivindicaciones normativas existentes podrían extenderse a sectores específicos perturbados, como la industria del arte. Inspirada en las propuestas de Gunkel y Coeckelbergh de basar el estatus moral de las máquinas en las relaciones sociales, esta investigación presenta experimentos en línea (∑N = 448) que comprueban si la interacción con el arte generado por la IA afecta a la percepción de la posición moral de su creador, es decir, del sistema generador de la IA, y cómo lo hace. Nuestros resultados indican que la evaluación de la falta de ánimo de un sistema de IA podría influir en la forma en que las personas evalúan posteriormente el arte generado por la IA. También encontramos que la sobrevaloración de las imágenes generadas por la IA podría afectar negativamente a la percepción de la agencia de su creador. Sin embargo, nuestros experimentos no sugieren que la interacción con el arte generado por la IA tenga un efecto significativo en la percepción de la posición moral de la máquina. Estos resultados revelan que los enfoques socio-relacionales de los derechos de la IA podrían entrelazarse con las tesis de la posición moral basadas en la propiedad. Arrojamos luz sobre cómo los estudios empíricos pueden contribuir al debate sobre la IA y los derechos de los robots al revelar la percepción pública de esta cuestión.

1 Introducción

A medida que los robots y los sistemas de inteligencia artificial (IA) se generalizan, los estudiosos se preguntan si la sociedad debe tener alguna responsabilidad hacia ellos. Esta indagación, también llamada debate sobre los «derechos de los robots» (Gunkel, 2018b), cuestiona de manera integral si estos sistemas tienen importancia moral, es decir, si se les debe conceder o reconocer un cierto nivel de categoría moral. Los académicos han expresado una pluralidad de opiniones sobre este tema. Los que se oponen a la perspectiva denuncian la idea argumentando que estas entidades son ontológicamente diferentes de los humanos (Miller, 2015). Otros sostienen que este debate se produce a expensas de cuestiones morales más destacadas (Birhane y van Dijk, 2020) y que podría conducir a una perturbación social (Bryson, 2018). Por el contrario, algunos académicos proponen que los robots y los sistemas de IA deberían tener importancia moral si desarrollan conciencia o sensibilidad (Torrance, 2008). Incluso si no llegan a ser conscientes, la sociedad podría optar por proteger la IA y los robots para desalentar el comportamiento humano inmoral (Darling, 2016).

Esta investigación está motivada por las propuestas de Gunkel y Coeckelbergh, que defienden una perspectiva socio-relacional del debate sobre los derechos de los robots. Gunkel (2018a) propone que el estatus moral se basa en las relaciones sociales más que en la ontología de una entidad, de manera que los sistemas automatizados podrían importar moralmente ante las interacciones sociales. En una línea similar, Coeckelbergh (2020b) sostiene que la sociedad podría otorgar a estas entidades un estatus moral debido a su valor extrínseco para los seres humanos y sugiere que a estas entidades se les podría conceder un estatus moral indirecto en función de cuánto las valoren los seres humanos.

*** Translated with http://www.DeepL.com/Translator (free version) ***

El dilema social en el desarrollo de la IA y por qué debemos tenemos que resolverlo

Mientras aumenta la demanda de sistemas éticos de inteligencia artificial (IA), se acelera el número de usos no éticos de la IA, aunque no hay

de directrices éticas. Sostenemos que una de las principales causas subyacentes es

que los desarrolladores de IA se enfrentan a un dilema social en la ética del desarrollo de la IA, lo que impide la

la adaptación generalizada de las mejores prácticas éticas. Definimos el dilema social para

definimos el dilema social del desarrollo de la IA y describimos por qué la crisis actual de la ética del desarrollo de la IA no puede resolverse sin liberar a los desarrolladores de la IA de su dilema social. Argumentamos

que el desarrollo de la IA debe profesionalizarse para superar el dilema social, y

discutimos cómo la medicina puede servir de modelo en este proceso.

Por qué la ética debe ser parte integral de la Inteligencia Artificial

https://www.tue.nl/en/news/news-overview/16-03-2021-why-ethics-should-be-integral-part-of-artificial-intelligence/?twclid=11413455888245944325

Gran parte de la IA actual consiste en encontrar patrones estadísticos en datos históricos para hacer valiosas predicciones para el futuro. Sin embargo, cada vez hay más pruebas de que el uso de algoritmos, incluida la elaboración de perfiles raciales, puede perjudicar gravemente a sectores vulnerables de la sociedad, incluso cuando no hay una intención explícita de discriminación. Preguntamos a Mykola Pechenizkiy, profesor de Minería de Datos en la Universidad Tecnológica de Eindhoven y uno de los pioneros en IA ética, sobre sus esfuerzos para que la IA sea justa y responsable. «Debemos dejar de culpar a los datos y hacer que la IA sea digna de confianza por su diseño».

El 15 de enero de 2021, el gobierno holandés dimitió, justo dos meses antes de las elecciones generales. El motivo no fue, como cabría esperar, su gestión de la pandemia de Corona, sino un escándalo en el que miles de familias holandesas, muchas de ellas pertenecientes a minorías étnicas, fueron acusadas erróneamente de fraude en la asistencia a la infancia.

El escándalo es sólo un ejemplo de la creciente evidencia de que la IA y el aprendizaje automático tienen un impacto en la sociedad y en los seres humanos que es menos beneficioso. Otros ejemplos son el software de reconocimiento facial que discrimina los rostros de piel más oscura y los rostros de las mujeres, los algoritmos de generación de imágenes que autocompletan imágenes recortadas de mujeres con un top escotado o un bikini, o un modelo lingüístico de última generación (GPT-3) que tiene una tendencia explícita a relacionar a los musulmanes con la violencia.

«En otras palabras: La IA tiene un problema de sesgo», dice Pechenizkiy. «Sus predicciones reflejan necesariamente los datos en los que se basan, que, como sabemos, suelen estar sesgados de forma que refuerzan las desigualdades existentes en la sociedad. O, como les gusta decir a los analistas de datos: basura dentro, basura fuera».

LA ÉTICA SE CONVIERTE EN EL CENTRO DE ATENCIÓN.

La IA tiene un impacto cada vez mayor en nuestro mundo cotidiano, afectando a millones de personas no sólo en la industria, sino también en la sanidad, la educación, la administración y muchos otros ámbitos. Tomemos como ejemplo el análisis predictivo, que puede detectar a los pacientes para posibles infecciones coronarias basándose en datos de análisis de sangre rutinarios, o predecir los reingresos hospitalarios de pacientes con insuficiencia cardíaca utilizando una red neuronal basada en la atención.

Por lo tanto, el sesgo en los datos es un gran problema, que obliga a los informáticos a tomar partido. «Creo firmemente que la ética debe ser una parte integral de la IA. No puede seguir considerándose una mera idea de último momento en un problema de optimización, como ha ocurrido tradicionalmente», dice Pechenizkiy.

Sea escéptico con los líderes de opinión

https://lareviewofbooks.org/article/be-skeptical-of-thought-leaders/

LAS EMPRESAS HACEN PUBLICIDAD DE FORMA REGULAR de su compromiso con la «ética». A menudo afirman que se comportan mejor de lo que exige la ley y, a veces, incluso afirman que hacen del mundo un lugar mejor. Google, por ejemplo, proclama su compromiso con el desarrollo «responsable» de la inteligencia artificial y jura que sigue elevados principios de IA que incluyen ser «socialmente beneficioso» y «responsable ante las personas», y que «evita crear o reforzar prejuicios injustos».

El reciente trato de Google a Timnit Gebru, antiguo colíder de su equipo de IA ética, cuenta otra historia. Después de que Gebru se sometiera a un proceso de revisión interna antagónica por un documento de coautoría que explora los riesgos sociales y medioambientales y expresa su preocupación por los problemas de justicia dentro de Google, la empresa no la felicitó por un trabajo bien hecho. En su lugar, ella y su colega Margaret Mitchell (la otra codirectora), que la apoyaba, fueron «expulsadas». El comportamiento de Google «quizás dañó irreversiblemente» la reputación de la empresa. Era difícil no llegar a la conclusión de que los valores de la empresa no coinciden con el bien público.

Publicado El reconocimiento facial es un superpoder

El reconocimiento facial es un superpoder. Cómo te afectará y por qué deberías conocerlo

Análisis técnico, social, ético y regulatorio

http://hdl.handle.net/10016/33010

Publicación en acceso abierto

Los valores codificados en la investigación del aprendizaje automático

https://arxiv.org/abs/2106.15590

El aprendizaje automático (ML) ejerce actualmente una influencia desmesurada en el mundo, afectando cada vez más a las comunidades y a las prácticas institucionales. Por lo tanto, es fundamental que cuestionemos las vagas concepciones de este campo como neutral en cuanto a los valores o universalmente beneficioso, y que investiguemos qué valores específicos está promoviendo este campo. En este artículo, presentamos un examen riguroso de los valores del campo mediante el análisis cuantitativo y cualitativo de 100 artículos de ML altamente citados publicados en las principales conferencias de ML, ICML y NeurIPS. Anotamos las características clave de los artículos que revelan sus valores: cómo justifican su elección del proyecto, qué aspectos realzan, su consideración de las posibles consecuencias negativas y sus afiliaciones institucionales y fuentes de financiación. Descubrimos que las necesidades de la sociedad suelen estar muy poco relacionadas con la elección del proyecto, si es que se mencionan, y que la consideración de las consecuencias negativas es extremadamente rara. Identificamos 67 valores que se elevan en la investigación sobre el aprendizaje automático y, de ellos, encontramos que los trabajos se justifican y evalúan con mayor frecuencia en función del rendimiento, la generalización, la eficiencia, la comprensión del investigador, la novedad y el aprovechamiento de trabajos anteriores. Presentamos amplias pruebas textuales y análisis de cómo se operacionalizan estos valores. En particular, descubrimos que cada uno de estos valores principales se define y aplica actualmente con suposiciones e implicaciones que generalmente apoyan la centralización del poder. Por último, encontramos vínculos cada vez más estrechos entre estos artículos altamente citados y las empresas tecnológicas y las universidades de élite.

Historia de la ética digital

https://www.researchgate.net/publication/345139494_History_of_digital_ethics

La ética digital, también conocida como ética de la informática o ética de la información, es actualmente un campo muy vivo que atrae mucha atención, pero ¿cómo surgió y cuáles fueron los desarrollos que llevaron a su existencia? ¿Cuáles son las tradiciones, las preocupaciones y los desarrollos tecnológicos y sociales que impulsaron la ética digital? ¿Cómo cambiaron las cuestiones éticas con la digitalización de la vida humana? ¿Cómo respondió la disciplina tradicional de la filosofía? El artículo ofrece una visión general, proponiendo épocas históricas: la «premodernidad» anterior a la computación digital sobre los datos, pasando por la «modernidad» del procesamiento digital de datos hasta nuestra actual «posmodernidad», cuando no sólo los datos son digitales, sino que nuestras propias vidas son en gran medida digitales. En cada sección se esboza la situación de la tecnología y la sociedad, y luego se explica la evolución de la ética digital. Por último, se ofrece una breve perspectiva.

Ética como servicio: una operacionalización pragmática de la ética de la IA

https://link.springer.com/article/10.1007/s11023-021-09563-w

A medida que ha aumentado la gama de usos potenciales de la inteligencia artificial (IA), en particular el aprendizaje automático (ML), también ha aumentado la conciencia de los problemas éticos asociados. Esta mayor conciencia ha llevado a la comprensión de que la legislación y la regulación existentes brindan una protección insuficiente a las personas, los grupos, la sociedad y el medio ambiente de los daños de la IA. En respuesta a esta constatación, ha habido una proliferación de códigos, directrices y marcos de ética basados ​​en principios. Sin embargo, cada vez está más claro que existe una brecha significativa entre la teoría de los principios éticos de la IA y el diseño práctico de los sistemas de IA. En trabajos anteriores, analizamos si es posible cerrar esta brecha entre el «qué» y el «cómo» de la ética de la IA mediante el uso de herramientas y métodos diseñados para ayudar a los desarrolladores, ingenieros y diseñadores de IA a llevar los principios a la práctica. Concluimos que este método de cierre es actualmente ineficaz ya que casi todas las herramientas y métodos de traducción existentes son demasiado flexibles (y por lo tanto vulnerables al lavado ético) o demasiado estrictos (no responden al contexto). Esto planteó la pregunta: si, incluso con orientación técnica, la ética de la IA es un desafío para integrarla en el proceso de diseño algorítmico, ¿se vuelve inútil todo el esfuerzo de diseño pro-ético? Y, en caso negativo, ¿cómo se puede hacer que la ética de la IA sea útil para los profesionales de la IA? Esta es la pregunta que buscamos abordar aquí explorando por qué los principios y las herramientas técnicas de traducción siguen siendo necesarios, incluso si son limitados, y cómo estas limitaciones pueden superarse potencialmente proporcionando una base teórica de un concepto que se ha denominado ‘Ética como servicio. .

Crea tu sitio web con WordPress.com
Comenzar