La ética de la IA es una preocupación. Aprenda cómo puede mantener la ética

https://learn.g2.com/ai-ethics?s=03

La inteligencia artificial (IA) se está convirtiendo en algo omnipresente en nuestra vida cotidiana. 

Aunque no sea consciente de ello, la IA está integrada en muchas de las tecnologías que utiliza habitualmente. Cuando Netflix te recomienda un programa que podría gustarte, o Google te sugiere que reserves un viaje online desde el aeropuerto en el que sueles volar, la inteligencia artificial está involucrada.

De hecho, el noventa y uno por ciento de las empresas actuales quieren invertir en IA. Aunque la IA pueda parecer extremadamente técnica, rozando el nivel de la ciencia ficción, en última instancia no es más que una herramienta. Y como cualquier herramienta, puede utilizarse para bien o para mal. Por lo tanto, a medida que la IA va asumiendo tareas cada vez más sofisticadas, es importante asegurarse de que existe un marco ético para su correcto uso.

Profundicemos un poco más en las preocupaciones clave que rodean a la ética en la IA, algunos ejemplos de IA ética y, lo que es más importante, cómo garantizar que se respete la ética cuando se utiliza la IA en un contexto empresarial.

¿Qué es la ética en la IA?

La ética en la IA es un conjunto de principios morales para guiar e informar el desarrollo y el uso de las tecnologías de inteligencia artificial. Dado que la IA hace cosas que normalmente requerirían inteligencia humana, requiere directrices morales tanto como la toma de decisiones humana. Sin una normativa ética de la IA, el potencial de uso de esta tecnología para perpetuar la mala conducta es alto.

Muchos sectores utilizan mucho la IA, como las finanzas, la sanidad, los viajes, la atención al cliente, las redes sociales y el transporte. Debido a su creciente utilidad en tantos sectores, la tecnología de IA tiene implicaciones de gran alcance para todos los aspectos del mundo y, por lo tanto, debe ser regulada.

Las autoridades de derechos civiles de EE.UU. advierten a los empresarios sobre la IA sesgada

https://apnews.com/article/technology-discrimination-artificial-intelligence-e1bcf4a2e7f1b671cbf3a44bc99b3656?s=03

El gobierno federal dijo el jueves que la tecnología de inteligencia artificial para seleccionar nuevos candidatos a un puesto de trabajo o supervisar la productividad de los trabajadores puede discriminar injustamente a las personas con discapacidad, enviando una advertencia a los empleadores de que las herramientas de contratación comúnmente utilizadas podrían violar las leyes de derechos civiles.

El Departamento de Justicia de Estados Unidos y la Comisión para la Igualdad de Oportunidades en el Empleo emitieron conjuntamente una guía para que los empleadores tengan cuidado antes de utilizar las populares herramientas algorítmicas destinadas a agilizar el trabajo de evaluación de los empleados y las perspectivas de empleo, pero que también podrían infringir la Ley de Estadounidenses con Discapacidades.

«Estamos haciendo sonar una alarma con respecto a los peligros vinculados a la dependencia ciega de la IA y otras tecnologías que estamos viendo cada vez más utilizadas por los empleadores», dijo el jueves a los periodistas la Fiscal General Adjunta Kristen Clarke, de la División de Derechos Civiles del departamento. «El uso de la IA está agravando la prolongada discriminación a la que se enfrentan los solicitantes de empleo con discapacidades».

Mira detrás de la cortina: No te dejes deslumbrar por los reclamos de «inteligencia artificial

https://www.seattletimes.com/opinion/look-behind-the-curtain-dont-be-dazzled-by-claims-of-artificial-intelligence/?s=03

Actualmente vivimos en la era de la «inteligencia artificial», pero no como las empresas que venden «IA» quieren hacer creer. Según Silicon Valley, las máquinas están superando rápidamente el rendimiento humano en una variedad de tareas, desde las mundanas, pero bien definidas y útiles, como la transcripción automática, hasta habilidades mucho más vagas como la «comprensión de lectura» y la «comprensión visual». Según algunos, estas habilidades representan incluso un rápido progreso hacia la «Inteligencia General Artificial», o sistemas que son capaces de aprender nuevas habilidades por sí mismos.

Ante estas grandes afirmaciones, en última instancia falsas, necesitamos una cobertura mediática que exija responsabilidades a las empresas tecnológicas. Con demasiada frecuencia, lo que obtenemos en su lugar es un reportaje exagerado de «gee whiz», incluso en publicaciones venerables como The New York Times.

Si los medios de comunicación nos ayudaran a dejar de lado las exageraciones, ¿qué veríamos? Veríamos que lo que se llama «IA» son en realidad sistemas de reconocimiento de patrones que procesan cantidades insondables de datos utilizando enormes cantidades de recursos informáticos. A continuación, estos sistemas reproducen probabilísticamente los patrones que observan, con distintos grados de fiabilidad y utilidad, pero siempre guiados por los datos de entrenamiento. Para la transcripción automática de diversas variedades de inglés, la máquina puede asignar las formas de onda a la ortografía, pero se tropezará con los nombres de productos, personas o lugares recientemente destacados. Al traducir del turco al inglés, las máquinas asignarán el pronombre turco de género neutro «o» a «él» si el predicado «es un médico» y «ella» si es «una enfermera», porque esos son los patrones más destacados en los datos de entrenamiento.

Los grupos de derechos humanos exigen a Zoom que detenga los planes de la controvertida IA emocional

https://www.protocol.com/enterprise/zoom-emotion-ai-aclu-rights?s=03

La IA de las emociones utiliza la visión por ordenador y el reconocimiento facial, el reconocimiento del habla, el procesamiento del lenguaje natural y otras tecnologías de IA para capturar datos que representan las expresiones externas de las personas en un esfuerzo por detectar sus emociones, actitudes o sentimientos internos.

«El uso de este software por parte de Zoom da crédito a la pseudociencia del análisis de las emociones que, según los expertos, no funciona. Las expresiones faciales pueden variar significativamente y a menudo están desconectadas de las emociones subyacentes de tal manera que incluso los humanos a menudo no son capaces de descifrarlas con precisión», continuaron.

«Da la sensación de que son una empresa que está abierta a considerar todos estos factores», dijo Seeley George sobre Zoom. Dijo que Zoom no ha respondido a las solicitudes de la organización para discutir el tema. La empresa tampoco ha respondido a las peticiones de Protocolo para hacer comentarios.

Traducción realizada con la versión gratuita del traductor http://www.DeepL.com/Translator

La Agencia Tributaria holandesa fue abatida por la IA: ¿qué viene ahora?

https://spectrum.ieee.org/artificial-intelligence-in-government

Cuando una familia de los Países Bajos quería reclamar la ayuda gubernamental para el cuidado de los niños, tenía que presentar una solicitud a la autoridad fiscal holandesa. Esas solicitudes pasaban por un algoritmo de autoaprendizaje, implantado inicialmente en 2013. En el flujo de trabajo de la Agencia Tributaria, el algoritmo examinaba primero las solicitudes en busca de indicios de fraude, y los humanos analizaban las solicitudes que marcaban como de alto riesgo.

En realidad, el algoritmo desarrolló una pauta para etiquetar falsamente las reclamaciones como fraudulentas, y los atareados funcionarios sellaron las etiquetas de fraude. Así, durante años, la administración tributaria ordenó infundadamente a miles de familias que devolvieran sus reclamaciones, empujando a muchos a una deuda onerosa y destruyendo vidas en el proceso.

«Cuando hay un impacto dispar, tiene que haber un debate social en torno a esto, si es justo. Tenemos que definir lo que es ‘justo'», dice Yong Suk Lee, profesor de tecnología, economía y asuntos globales en la Universidad de Notre Dame, en Estados Unidos. «Pero ese proceso no existió».

Las autopsias del asunto mostraron pruebas de parcialidad. Muchas de las víctimas tenían ingresos más bajos, y un número desproporcionado tenía orígenes de minorías étnicas o inmigrantes. El modelo consideraba que no ser ciudadano holandés era un factor de riesgo.

«El rendimiento del modelo, del algoritmo, debe ser transparente o publicado por diferentes grupos», dice Lee. Eso incluye cosas como el índice de precisión del modelo, añade.

Traducción realizada con la versión gratuita del traductor http://www.DeepL.com/Translator

Cómo Aristóteles está solucionando los fallos del aprendizaje profundo

https://thegradient.pub/how-aristotle-is-fixing-deep-learnings-flaws/?s=03

¿Quién puede negar la fría brisa que sopla en algunos sectores del mundo de la IA? Mientras muchos siguen disfrutando del glorioso verano que supone el ascenso del aprendizaje profundo, algunos perciben vientos otoñales que llevan consigo palabras de advertencia que todos hemos oído muchas veces, como «caja negra», «mala generalización», «frágil», «carente de razonamiento», «sesgada», «sin sentido común» e «insostenible». Tanto si nos dirigimos realmente a un nuevo invierno de la IA como si no, la inteligencia artificial tiene ciertamente un largo camino que recorrer para enfrentarse a la inteligencia humana.

Sin embargo, la inteligencia humana no es un tema de investigación especialmente nuevo. Ha sido estudiada durante mucho tiempo por muchos de los intelectos más agudos de la humanidad, remontándose al menos 2300 años atrás a Aristóteles, el «padre de la lógica» y el «padre de la psicología». A través de las seis obras que componen su Organon, además de algunas otras como su Metafísica y Sobre el alma, Aristóteles sentó las bases de nuestra comprensión de la lógica, el razonamiento y el conocimiento. Fue tan exhaustivo, de hecho, que 2000 años después Kant escribió: «Desde Aristóteles… la lógica no ha podido avanzar ni un solo paso».

Aunque ciertamente ha habido avances más recientes, la lógica de Aristóteles sigue siendo sólida, describiendo de forma conmovedora los componentes básicos del razonamiento humano. Sin embargo, muchos de los ingredientes clave descritos por Aristóteles brillan por su ausencia en la IA moderna, especialmente en el aprendizaje profundo.

Mi colega y yo hemos propuesto recientemente1 cómo rediseñar el aprendizaje profundo, desarrollando un nuevo marco para el entrenamiento de redes neuronales profundas que ya no depende de la burda optimización estadística basada en el gradiente. En su lugar, es coherente con una amplia gama de ideas de las ciencias cognitivas, incluidas las teorías de Aristóteles y otros filósofos sobre el razonamiento humano. Al hacer esto, desaparecen muchas de las limitaciones notorias del aprendizaje profundo, sobre todo la infame caja negra. Estas nuevas redes neuronales profundas son ahora, entre otras cosas, totalmente interpretables y explicables, capaces de generalizar fuera de la distribución a nuevas tareas, y más robustas a los ataques adversarios.

Cómo la IA está siendo transformada por los «modelos de fundación

En el mundo de la informática y la inteligencia artificial, pocos temas están generando tanto interés como el auge de los llamados «modelos fundacionales». Estos modelos pueden considerarse meta-AI -pero no Meta-AI, si se entiende lo que quiero decir-, sistemas que incorporan vastas redes neuronales con conjuntos de datos aún mayores. Son capaces de procesar mucho pero, lo que es más importante, son fácilmente adaptables a todos los ámbitos de la información, acortando y simplificando lo que hasta ahora era un laborioso proceso de entrenamiento de los sistemas de IA. Si los modelos fundacionales cumplen su promesa, la IA podría tener un uso comercial mucho más amplio.

Para dar una idea de la escala de estos algoritmos, GPT-3, un modelo básico para el procesamiento del lenguaje natural publicado hace dos años, contiene más de 170.000 millones de parámetros, las variables que guían las funciones dentro de un modelo. Evidentemente, son muchos parámetros y dan una idea de la complejidad de estos modelos. Esta complejidad conlleva una considerable incertidumbre, incluso entre los diseñadores, sobre su funcionamiento.

Imagen de portada del episodio del podcast

PODCAST – MAYO 06 2022

Bill Kristol: Esper, Pompeo y Roe

No, dejar que los estados resuelvan el derecho al aborto no bajará la temperatura. Además, Trump guarda un extraño silencio…

En una reciente conferencia de la Universidad de Stanford, científicos e ingenieros describieron cómo la llegada de los modelos fundacionales ha sido posible gracias a los sustanciales avances en la ingeniería de hardware que han rebajado los costes de procesamiento de datos al reducir la cantidad de tiempo y energía que el sistema utiliza para gestionarse a sí mismo mientras ejecuta su análisis de datos. El resultado es que la investigación en IA ha conseguido crear modelos genéricos, en el sentido de que están preentrenados utilizando un único y enorme conjunto de datos y pueden realizar una variedad de tareas diferentes con relativamente poca intervención del programador, en lugar de estar adaptados a una única tarea y conjunto de datos. Un científico de la IA lo comparó con aprender a patinar. Si sabes caminar, tienes la mayoría de las habilidades que necesitas para patinar; pequeños cambios y algo de práctica es todo lo que necesitas.

Como es de suponer, un salto cuántico como éste está generando controversia, empezando por la cuestión de si el propio término «modelo de fundación» señala un esfuerzo por parte de una sola institución -Stanford, que lanzó un Centro de Investigación sobre Modelos de Fundación el año pasado- para ejercer la hegemonía intelectual y el cierre epistémico sobre el campo de la IA. Entran en juego las envidias y rivalidades profesionales e institucionales («¡Que Stanford diga que tiene la fundación!»). Sin embargo, por debajo de todo esto parece haber una mezcla de genuina preocupación por «no adelantarse a los acontecimientos» y por cómo la terminología podría afectar a la distribución del capital de inversión y el apoyo a la investigación.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Cómo las IAs de generación de lenguaje podrían transformar la ciencia

https://doi.org/10.1038/d41586-022-01191-3

Los algoritmos de aprendizaje automático que generan un lenguaje fluido a partir de grandes cantidades de texto podrían cambiar la forma de hacer ciencia, pero no necesariamente para mejor, afirma Shobita Parthasarathy, especialista en gobernanza de tecnologías emergentes de la Universidad de Michigan en Ann Arbor.

En un informe publicado el 27 de abril, Parthasarathy y otros investigadores tratan de anticipar las repercusiones sociales de las nuevas tecnologías de inteligencia artificial (IA) denominadas grandes modelos lingüísticos (LLM). Estos modelos pueden producir una prosa asombrosamente convincente, traducir entre idiomas, responder a preguntas e incluso producir código. Las empresas que los construyen -entre ellas Google, Facebook y Microsoft- pretenden utilizarlos en chatbots y motores de búsqueda, así como para resumir documentos. (Al menos una empresa, Ought, de San Francisco (California), está probando los LLM en la investigación; está construyendo una herramienta llamada «Elicit» para responder a preguntas utilizando la literatura científica).

Los LLM ya son controvertidos. A veces repiten errores o estereotipos problemáticos en los millones o miles de millones de documentos con los que se entrenan. Y a los investigadores les preocupa que los flujos de lenguaje generado por ordenador, aparentemente autorizado e indistinguible de la escritura humana, puedan causar desconfianza y confusión.

Parthasarathy afirma que, aunque los LLM podrían reforzar los esfuerzos por comprender investigaciones complejas, también podrían aumentar el escepticismo del público respecto a la ciencia. Habló con Nature sobre el informe.

¿Cómo pueden los LLMs ayudar u obstaculizar la ciencia?

En un principio pensé que los LLM podrían tener un impacto democratizador y potenciador. En lo que respecta a la ciencia, podrían permitir a la gente extraer rápidamente información: por ejemplo, consultando los síntomas de una enfermedad o generando resúmenes de temas técnicos.

¿Capaz pero amoral? Comparación de la colaboración entre la IA y los expertos humanos en la toma de decisiones éticas

https://www.researchgate.net/publication/360250382_Capable_but_Amoral_Comparing_AI_and_Human_Expert_Collaboration_in_Ethical_Decision_Making

Aunque la inteligencia artificial (IA) se aplica cada vez más en los procesos de toma de decisiones, las decisiones éticas plantean desafíos para las aplicaciones de la IA. Dado que los humanos no siempre pueden ponerse de acuerdo sobre lo que hay que hacer, ¿cómo se percibiría la toma de decisiones éticas por parte de los sistemas de IA y cómo se atribuiría la responsabilidad en la colaboración entre humanos e IA? En este estudio, investigamos cómo el tipo de experto (humano frente a IA) y el nivel de autonomía del experto (asesor frente a decisor) influyen en la confianza, la responsabilidad percibida y la fiabilidad. Descubrimos que los participantes consideran que los humanos son moralmente más dignos de confianza pero menos capaces que su equivalente en IA. Esto se refleja en la confianza de los participantes en la IA: las recomendaciones y decisiones de la IA se aceptan con más frecuencia que las del experto humano. Sin embargo, los expertos de los equipos de IA son percibidos como menos responsables que los humanos, mientras que los programadores y vendedores de sistemas de IA son considerados parcialmente responsables en cambio.

Para que la IA sea justa, esto es lo que debemos aprender a hacer

https://doi.org/10.1038/d41586-022-01202-3

Para estimular las colaboraciones fructíferas, hay que diseñar mejor los mandatos y los enfoques. He aquí tres principios que los tecnólogos, los científicos sociales y las comunidades afectadas pueden aplicar juntos para conseguir aplicaciones de IA que tengan menos probabilidades de deformar la sociedad.

Crea tu sitio web con WordPress.com
Comenzar