Diseña un sitio como este con WordPress.com
Comenzar

Ética de la inteligencia artificial

Este artículo ofrece una visión general de las principales cuestiones éticas relacionadas con el impacto de la Inteligencia Artificial (IA) en la sociedad humana. La IA es el uso de máquinas para hacer cosas que normalmente requerirían inteligencia humana. En muchos ámbitos de la vida humana, la IA ha afectado rápida y significativamente a la sociedad humana y a la forma en que nos relacionamos. Y seguirá haciéndolo. A lo largo del camino, la IA ha planteado importantes retos éticos y sociopolíticos que exigen un análisis filosófico y ético exhaustivo. Su impacto social debe ser estudiado para evitar cualquier repercusión negativa. Los sistemas de IA son cada vez más autónomos, aparentemente racionales e inteligentes. Este amplio desarrollo da lugar a numerosas cuestiones. Además del daño potencial y el impacto de las tecnologías de IA en nuestra privacidad, otras preocupaciones incluyen su estatus moral y legal (incluyendo los derechos morales y legales), su posible agencia moral y su condición de pacientes, y cuestiones relacionadas con su posible condición de persona e incluso su dignidad. Sin embargo, es habitual distinguir las siguientes cuestiones como de máxima importancia con respecto a la IA y su relación con la sociedad humana, según tres periodos de tiempo diferentes: (1) a corto plazo (principios del siglo XXI): los sistemas autónomos (transporte, armas), el sesgo de las máquinas en la ley, la privacidad y la vigilancia, el problema de la caja negra y la toma de decisiones de la IA; (2) a medio plazo (desde la década de 2040 hasta el final del siglo): Gobernanza de la IA, confirmación del estatus moral y jurídico de las máquinas inteligentes (agentes morales artificiales), interacción hombre-máquina, automatización masiva; (3) a largo plazo (a partir del 2100): singularidad tecnológica, desempleo masivo, colonización espacial.

Anuncio publicitario

Por qué la ética debe ser parte integral de la Inteligencia Artificial

https://www.tue.nl/en/our-university/departments/biomedical-engineering/the-department/news/news-overview/16-03-2021-why-ethics-should-be-integral-part-of-artificial-intelligence/?twclid=11428270583956090887

Gran parte de la IA actual consiste en encontrar patrones estadísticos en datos históricos para hacer valiosas predicciones para el futuro. Sin embargo, cada vez hay más pruebas de que el uso de algoritmos, incluida la elaboración de perfiles raciales, puede perjudicar gravemente a sectores vulnerables de la sociedad, incluso cuando no hay una intención explícita de discriminación. Preguntamos a Mykola Pechenizkiy, profesor de Minería de Datos en la Universidad Tecnológica de Eindhoven y uno de los pioneros en IA ética, sobre sus esfuerzos para que la IA sea justa y responsable. «Debemos dejar de culpar a los datos y hacer que la IA sea digna de confianza por su diseño».

El 15 de enero de 2021, el gobierno holandés dimitió, justo dos meses antes de las elecciones generales. El motivo no fue, como cabría esperar, su gestión de la pandemia de Corona, sino un escándalo en el que miles de familias holandesas, muchas de ellas pertenecientes a minorías étnicas, fueron acusadas erróneamente de fraude en la asistencia a la infancia.

El escándalo es sólo un ejemplo de la creciente evidencia de que la IA y el aprendizaje automático tienen un impacto en la sociedad y en los seres humanos que es menos beneficioso. Otros ejemplos son el software de reconocimiento facial que discrimina los rostros de piel más oscura y los rostros de las mujeres, los algoritmos de generación de imágenes que autocompletan imágenes recortadas de mujeres con un top escotado o un bikini, o un modelo lingüístico de última generación (GPT-3) que tiene una tendencia explícita a relacionar a los musulmanes con la violencia.

«En otras palabras: La IA tiene un problema de sesgo», dice Pechenizkiy. «Sus predicciones reflejan necesariamente los datos en los que se basan, que, como sabemos, suelen estar sesgados de forma que refuerzan las desigualdades existentes en la sociedad. O, como les gusta decir a los analistas de datos: basura dentro, basura fuera».

LA ÉTICA SE CONVIERTE EN EL CENTRO DE ATENCIÓN.

La IA tiene un impacto cada vez mayor en nuestro mundo cotidiano, afectando a millones de personas no sólo en la industria, sino también en la sanidad, la educación, la administración y muchos otros ámbitos. Tomemos como ejemplo el análisis predictivo, que puede detectar a los pacientes para posibles infecciones coronarias basándose en datos de análisis de sangre rutinarios, o predecir los reingresos hospitalarios de pacientes con insuficiencia cardíaca utilizando una red neuronal basada en la atención.

Por lo tanto, el sesgo en los datos es un gran problema, que obliga a los informáticos a tomar partido. «Creo firmemente que la ética debe ser una parte integral de la IA. Ya no puede considerarse como una mera ocurrencia posterior a un problema de optimización, como ha ocurrido tradicionalmente», dice Pechenizkiy.

«Hoy en día, la IA y el aprendizaje automático están estrechamente relacionados con la equidad y la no discriminación. Si se construye un algoritmo que ayude a los empresarios a decidir a quién se debe invitar a una entrevista de trabajo, no sólo debe ser preciso, sino también respetar diferentes aspectos de la diversidad, y cumplir con la ley y la ética. O si se diseña un sistema de IA para diagnosticar el cáncer de piel, debe funcionar tanto para hombres como para mujeres, y para personas de pieles más claras y más oscuras».

*** Translated with http://www.DeepL.com/Translator (free version) ***

¿Quién debería detener la IA poco ética?

https://www.newyorker.com/tech/annals-of-technology/who-should-stop-unethical-ai

En ciencias de la computación, los principales medios para la investigación revisada por pares no son revistas sino conferencias, donde los artículos aceptados se presentan en forma de charlas o carteles. En junio de 2019, en una gran conferencia de inteligencia artificial en Long Beach, California, llamada Visión por computadora y reconocimiento de patrones, me detuve a mirar un póster de un proyecto llamado Speech2Face. Utilizando el aprendizaje automático, los investigadores habían desarrollado un algoritmo que generaba imágenes de rostros a partir de grabaciones de voz. Una buena idea, pensé, pero con resultados nada impresionantes: en el mejor de los casos, las caras coincidían con el sexo, la edad y la etnia de los hablantes, atributos que un oyente casual podría adivinar. Ese diciembre, vi un cartel similar en otro gran A.I. conferencia, Sistemas de procesamiento de información neuronal (Neurips), en Vancouver, Canadá. Tampoco le presté mucha atención.

Sin embargo, no mucho después, la investigación explotó en Twitter. «¿Qué es esta basura caliente, # NeurIPS2019?» Alex Hanna, una mujer trans y socióloga de Google que estudia A.I. ética, tuiteó. «Científicos de la computación y gente de aprendizaje automático, por favor, detengan esta horrible mierda transfóbica». Hanna objetó la forma en que la investigación buscaba vincular la identidad con la biología; Se produjo un extenso debate. Algunos usuarios de Twitter sugirieron que podría haber aplicaciones útiles para el software, como ayudar a identificar a los delincuentes. Otros argumentaron, incorrectamente, que una voz no revelaba nada sobre la apariencia de su hablante. Algunos hicieron bromas («Un hecho de que esto nunca debería haber sido aprobado: Rick Astley. No hay manera de que su [sistema] hubiera predicho su voz fuera de la cabeza en ese momento») o cuestionaron si el término «transfóbico» fue una caracterización justa de la investigación. Varias personas dijeron que no estaban seguras de qué era exactamente lo que estaba mal en el trabajo. Como Hanna argumentó que la predicción de voz a cara era una línea de investigación que «no debería existir», otros preguntaron si la ciencia podría o debería detenerse. «Sería decepcionante si no pudiéramos investigar las correlaciones, si se hace de forma ética», escribió un investigador. “Difícil, sí. Imposible, ¿por qué?

Parte de la conversación se refirió al proceso de revisión y publicación en informática. “Es curioso si ha habido discusiones sobre la creación de juntas de revisión de ética en conferencias o con agencias de financiación (como el IRB) para guiar la investigación de la IA”, escribió una persona. (La junta de revisión institucional de una organización, o I.R.B., realiza una revisión ética de la investigación científica propuesta). Muchos comentaristas señalaron que lo que está en juego en A.I. las investigaciones no son puramente académicas. «Cuando una empresa comercializa esto a la policía, ¿les dice que puede estar totalmente fuera de lugar?» preguntó un investigador. Le escribí a Subbarao Kambhampati, un científico informático de la Universidad Estatal de Arizona y ex presidente de la Asociación para el Avance de la Inteligencia Artificial, para averiguar qué pensaba del debate. «Cuando las conferencias de IA de ‘nivel superior’ aceptan este tipo de estudios», respondió, «tenemos mucha menos credibilidad para rechazar aplicaciones implementadas sin sentido, como ‘evaluar a los candidatos a entrevistas a partir de sus rasgos faciales utilizando tecnología de IA’ o terroristas, etc., de sus fotos policiales ‘, ambas aplicaciones reales vendidas por empresas comerciales «. Michael Kearns, un científico informático de la Universidad de Pensilvania y coautor de «El algoritmo ético», me dijo que estamos en «un pequeño momento del Proyecto Manhattan» para A.I. y aprendizaje automático. “La investigación académica en el campo se ha desplegado a escala masiva en la sociedad”, dijo. «Con eso viene esta mayor responsabilidad».

Desarrollo de una prueba de Turing para IA ética

Los desarrolladores de inteligencia artificial siempre han tenido un aire de «Mago de Oz». Detrás de una cortina magistral, realizan hazañas asombrosas que parecen otorgar cerebros algorítmicos a los espantapájaros computarizados de este mundo.

La prueba de Turing de IA se centró en la hechicería necesaria para engañarnos y hacernos pensar que los espantapájaros podrían ser humanos de carne y hueso (si ignoramos las pajitas sueltas que brotan de sus pantalones). Sin embargo, estoy de acuerdo con el argumento expresado recientemente por Rohit Prasad, científico jefe de Amazon para Alexa, quien sostiene que el marco del «juego de imitación» de Alan Turing ya no es relevante como un gran desafío para los profesionales de la inteligencia artificial.

[También en InfoWorld: Aplicación de devops en ciencia de datos y aprendizaje automático]
Creando una nueva prueba de Turing para IA ética
Prasad señala que hacerse pasar por diálogos en lenguaje natural ya no es un objetivo inalcanzable. La prueba de Turing fue un avance conceptual importante a principios del siglo XX, cuando lo que ahora llamamos computación cognitiva y procesamiento del lenguaje natural eran tan futuristas como viajar a la luna. Pero nunca tuvo la intención de ser un punto de referencia técnico, simplemente un experimento mental para ilustrar cómo una máquina abstracta podría emular las habilidades cognitivas.

Prasad sostiene que el valor de la IA reside en capacidades avanzadas que van mucho más allá de hacerse pasar por conversaciones en lenguaje natural. Señala las capacidades bien establecidas de AI para consultar y digerir grandes cantidades de información mucho más rápido de lo que cualquier humano podría manejar sin ayuda. La IA puede procesar video, audio, imágenes, sensores y otros tipos de datos más allá de los intercambios basados ​​en texto. Puede tomar acciones automatizadas de acuerdo con las intenciones del usuario inferidas o preespecificadas, en lugar de a través de diálogos de ida y vuelta.

Es posible que podamos envolver todas estas facultades de IA en un marco más amplio centrado en la IA ética. La toma de decisiones éticas es de gran interés para cualquier persona interesada en cómo se pueden programar los sistemas de IA para evitar invadir inadvertidamente la privacidad o tomar otras acciones que transgredan los principios normativos básicos. La IA ética también intriga a los aficionados a la ciencia ficción que han debatido durante mucho tiempo si las leyes intrínsecamente éticas de la robótica de Isaac Asimov se pueden programar de manera efectiva en robots reales (físicos o virtuales).

Si esperamos que los bots impulsados ​​por inteligencia artificial sean lo que los filósofos llaman «agentes morales», entonces necesitamos una nueva prueba de Turing. Un juego de imitación centrado en la ética dependería de qué tan bien un dispositivo, bot o aplicación impulsados ​​por la inteligencia artificial puedan convencer a un humano de que sus respuestas verbales y otros comportamientos podrían ser producidos por un ser humano moral real en las mismas circunstancias.

Construyendo marcos éticos de IA para la era de la robótica
Desde un punto de vista práctico, esta nueva prueba de Turing debería desafiar a los magos de la IA no solo a otorgar a sus «espantapájaros» robóticos su inteligencia algorítmica, sino también a equipar a los «hombres de hojalata» con la empatía artificial necesaria para involucrar a los humanos en contextos éticamente enmarcados a los “leones cobardes” la eficacia artificial necesaria para lograr resultados éticos en el mundo real.

La ética es un atributo de comportamiento complicado en torno al cual desarrollar métricas concretas de rendimiento de la IA. Está claro que incluso el conjunto de puntos de referencia técnicos más completo de la actualidad, como MLPerf, sería un criterio inadecuado para medir si los sistemas de inteligencia artificial pueden imitar de manera convincente a un ser humano moral.

https://www.infoworld.com/article/3606472/developing-a-turing-test-for-ethical-ai.html

El Diablo está en los Detalles

La “auditoría algorítmica” es el nuevo tema candente desde las salas de juntas hasta los laboratorios de inteligencia artificial y los pasillos de varios edificios gubernamentales. Las auditorías, el arma más reciente en el arsenal de IA responsable, se han convertido en una palanca mediante la cual las corporaciones, los legisladores y los expertos en IA ética compiten por influir sobre esta tecnología.

Sin embargo, perdido en la mezcla está lo que es exactamente una auditoría. Nuestro campo no tiene definiciones claras del término; los reguladores y los formuladores de políticas aún no han aprobado pautas claras sobre lo que implica una auditoría (aunque múltiples políticas las exigen); ninguna industria ha creado todavía una metodología estándar para las auditorías de IA; ningún organismo normativo ha publicado uno que se utilice habitualmente. Tenemos algunas incursiones en las «evaluaciones de impacto», puede considerarlas «audit lite», lo que proporciona algún indicador de hacia dónde se dirige.

Para comprender por qué esto es fundamental, tracemos un mapa de los eventos de la decisión fundamental de HireVue de detener el análisis facial en sus evaluaciones de contratación. Enterrada en el texto del artículo está esta frase críptica: «HireVue dice que una ‘auditoría algorítmica’ de su software realizada el año pasado muestra que no alberga prejuicios».

Términos que llaman la atención a alguien que ha trabajado en este campo: «algoritmo», «auditoría», «software», «no alberga sesgos». Profundicemos en los detalles.

https://parity.substack.com/p/the-devil-is-in-the-details

El mercado exige IA ética

 La inteligencia artificial está preparada para alterar todos los principales mercados y sistemas sociales. Ya sea para bien o para mal, no es la cuestión. En cambio, las preguntas son de quién será la vida mejor y peor, de qué manera y bajo qué reglas o condiciones. En las condiciones adecuadas, la IA puede ser muy beneficiosa y una fuerza positiva. Sin embargo, en condiciones inadecuadas, la IA puede provocar una discriminación generalizada y reforzar las disparidades socioeconómicas existentes.

El uso de la IA en la atención médica ofrece un ejemplo de estas tensiones: un algoritmo diseñado para orientar las intervenciones médicas a los pacientes más enfermos tuvo el efecto involuntario de canalizar recursos a una población blanca más saludable, en detrimento de los pacientes negros más enfermos. El uso de la IA también puede provocar invasiones de la privacidad y concentraciones peligrosas de poder. La tecnología de reconocimiento facial es un buen ejemplo. Puede usarse para encontrar niños desaparecidos y terroristas, pero también puede conducir al capitalismo de vigilancia y la recopilación de información biométrica de personas inocentes sin su conocimiento o consentimiento.

https://www.barrons.com/articles/the-marketplace-is-demanding-ethical-ai-51609102357

En cuestiones tecnológicas, la ética lo es todo y debe prevalecer en todo

 

Gabriela Ramos es la responsable de sacar adelante la Declaración Universal de la Inteligencia Artificial que prepara la Unesco. Su objetivo: que nadie quede desamparado ante los posibles efectos negativos de la tecnología.

Los valores subyacentes de Investigación de aprendizaje automático

 La investigación del aprendizaje automático está creciendo rápidamente y los sistemas están cambiando las prácticas anteriores de corporaciones, gobiernos, comunidades, individuos y entornos. En este contexto, los valores de la investigación de ML han tenido una influencia enorme. Los investigadores suelen argumentar que el AA es una herramienta apolítica y neutral en cuanto a valores, que se centra en las consecuencias positivas o enfatiza los valores en las declaraciones de ética de la IA. Para descubrir los valores subyacentes del campo, llevamos a cabo una anotación detallada de docenas de artículos de ML muy influyentes publicados en conferencias destacadas. Presentamos un análisis cuantitativo y una discusión cualitativa de las justificaciones declaradas de los artículos, valores y consecuencias negativas. Encontramos que la mayoría de estos artículos no mencionan ni una necesidad social ni consecuencias negativas. En cambio, estos artículos se evalúan a sí mismos de acuerdo con un conjunto de valores internos al campo. Discutimos cómo cada uno de estos valores supuestamente neutrales se invoca en formas políticamente cargadas, haciendo suposiciones particulares sobre el mundo y conduciendo a consecuencias particulares, y argumentamos que estos valores frecuentemente centralizan el poder.

https://drive.google.com/file/d/1tjrm3Bf1hxV8iuPSiCcM1IazITGp-GZj/view

An Introduction to Ethics in Robotics and AI

 Manual de ética en robótica e IA

Este libro ofrece una introducción a la ética de los robots y la inteligencia artificial. El libro fue escrito pensando en estudiantes universitarios, políticos y profesionales, pero debería ser accesible para la mayoría de los adultos. El libro está destinado a proporcionar puntos de vista equilibrados y, a veces, contradictorios sobre los beneficios y los déficits de la IA a través de la lente de la ética. Como se analiza en los capítulos siguientes, las cuestiones éticas a menudo no se cortan y secan. Las naciones, las comunidades y las personas pueden tener perspectivas únicas e importantes sobre estos temas que deben ser escuchadas y consideradas. Si bien las voces que componen este libro son las nuestras, hemos intentado representar las opiniones de las comunidades más amplias de IA, robótica y ética.

https://link.springer.com/content/pdf/10.1007%2F978-3-030-51110-4.pdf

Cómo crear un espacio para la ética en la IA

En un año que ha visto décadas de conmociones globales, malas noticias y escándalos comprimidos en 12 meses insoportablemente largos, el verano ya se siente como un recuerdo lejano. En agosto de 2020, el mundo estaba inmerso en un importante movimiento de justicia social y racial, y con suerte dije en VentureBeat que el término “IA ética” finalmente estaba empezando a significar algo.

https://venturebeat.com/2020/12/19/how-to-create-space-for-ethics-in-ai/