Meaningful human control: actionable properties for AI system development

https://link.springer.com/article/10.1007/s43681-022-00167-3?s=03#Sec3

Resumen

¿Cómo pueden los seres humanos mantener el control de los sistemas basados en la inteligencia artificial (IA) diseñados para realizar tareas de forma autónoma? Estos sistemas son cada vez más omnipresentes, lo que genera ventajas, pero también situaciones indeseables en las que la responsabilidad moral de sus acciones no puede atribuirse adecuadamente a ninguna persona o grupo en particular. Se ha propuesto el concepto de control humano significativo para abordar las lagunas de responsabilidad y mitigarlas estableciendo condiciones que permitan atribuir adecuadamente la responsabilidad a los seres humanos; sin embargo, todavía no existen requisitos claros para los investigadores, diseñadores e ingenieros, lo que dificulta el desarrollo de sistemas basados en la IA que permanezcan bajo un control humano significativo. En este artículo abordamos la brecha existente entre la teoría filosófica y la práctica de la ingeniería identificando, mediante un proceso iterativo de pensamiento abductivo, cuatro propiedades procesables para los sistemas basados en IA bajo control humano significativo, que analizamos haciendo uso de dos escenarios de aplicación: los vehículos automatizados y la contratación basada en IA. En primer lugar, un sistema en el que interactúen humanos y algoritmos de IA debería tener un dominio explícitamente definido de situaciones con carga moral dentro de las cuales el sistema debería operar. En segundo lugar, los humanos y los agentes de la IA dentro del sistema deben tener representaciones apropiadas y mutuamente compatibles. En tercer lugar, la responsabilidad atribuida a un ser humano debe ser proporcional a su capacidad y autoridad para controlar el sistema. En cuarto lugar, debe haber vínculos explícitos entre las acciones de los agentes de IA y las acciones de los humanos que son conscientes de su responsabilidad moral. Sostenemos que estas cuatro propiedades ayudarán a los profesionales con mentalidad práctica a dar pasos concretos hacia el diseño y la ingeniería de sistemas de IA que faciliten un control humano significativo.

Andrew Ng predicts the next 10 years in AI

Andrew Ng

Estamos encantados de volver a traer Transform 2022 en persona el 19 de julio y virtualmente del 20 al 28 de julio. Únase a los líderes de la IA y de los datos para asistir a charlas interesantes y a emocionantes oportunidades de establecer contactos. Inscríbase hoy mismo.

¿Alguna vez ha sentido que estaba harto de su línea de trabajo actual y quería cambiar de marcha? Si es así, no está solo. Sin embargo, además de participar en la Gran Dimisión, también hay enfoques menos radicales, como el que está adoptando Andrew Ng.

Ng, una de las figuras más destacadas de la IA, es fundador de LandingAI y DeepLearning.AI, copresidente y cofundador de Coursera, y profesor adjunto de la Universidad de Stanford. También fue jefe científico de Baidu y fundador del proyecto Google Brain. Sin embargo, su prioridad actual ha cambiado, pasando de los «bits a las cosas», como él dice.

Omniverso de Nvidia: Construyendo mundos a escala

Reproducir vídeo

Omniverso de Nvidia: Construyendo mundos a escala

En 2017, Andrew Ng fundó Landing AI, una startup que trabaja para facilitar la adopción de la IA en la fabricación. Este esfuerzo ha contribuido a dar forma a la percepción de Ng sobre lo que se necesita para que la IA funcione más allá de la gran tecnología.

Nos conectamos con Ng para hablar de lo que él llama el «enfoque centrado en los datos» de la IA, y cómo se relaciona con su trabajo con Landing AI y el panorama general de la IA en la actualidad.

De los bits a las cosas

Ng explicó que su motivación está orientada a la industria. Considera que la industria manufacturera es «una de esas grandes industrias que tiene un gran impacto en la vida de todos, pero que es tan invisible para muchos de nosotros». Muchos países, incluido Estados Unidos, han lamentado el declive de la fabricación. Ng quería «tomar la tecnología de IA que ha transformado los negocios de Internet y utilizarla para ayudar a las personas que trabajan en la fabricación». 

Se trata de una tendencia creciente: Según una encuesta de 2021 de The Manufacturer, el 65% de los líderes del sector manufacturero están trabajando para pilotar la IA. Se espera que la implementación solo en los almacenes alcance una tasa de crecimiento anual compuesta del 57,2% en los próximos cinco años.

Escuchar el podcast

Aunque la IA se aplica cada vez más en la fabricación, pasar de los bits a las cosas ha resultado ser mucho más difícil de lo que Ng pensaba. Cuando Landing AI empezó, confesó Ng, se centró sobre todo en trabajos de consultoría.

Pero después de trabajar en muchos proyectos de clientes, Ng y Landing AI desarrollaron un nuevo conjunto de herramientas y un libro de jugadas para hacer que la IA funcione en la fabricación y la automatización industrial. Esto condujo a Landing Lens, la plataforma de Landing AI, y al desarrollo de un enfoque de la IA centrado en los datos.

Landing Lens se esfuerza por hacer que los clientes de la fabricación y la automatización industrial construyan y desplieguen sistemas de inspección visual de forma rápida y sencilla. Ng tuvo que adaptar su trabajo en el ámbito del software de consumo para orientar la IA al sector de la fabricación. Por ejemplo, la visión por ordenador basada en la IA puede ayudar a los fabricantes en tareas como la identificación de defectos en las líneas de producción. Pero no es una tarea fácil, explicó. 

La IA puede predecir la raza de las personas a partir de imágenes de rayos X, y los científicos están preocupados

https://www.sciencealert.com/ai-can-predict-people-s-race-from-medical-images-and-scientists-are-concerned

Los modelos de aprendizaje profundo basados en la inteligencia artificial pueden identificar la raza de alguien solo a partir de sus radiografías, según ha revelado una nueva investigación, algo que sería imposible para un médico humano que mirara las mismas imágenes.

Los resultados plantean algunas cuestiones preocupantes sobre el papel de la IA en el diagnóstico, la evaluación y el tratamiento médicos: ¿podría el software informático aplicar involuntariamente un sesgo racial al estudiar imágenes como estas?

Tras haber entrenado su IA con cientos de miles de imágenes de rayos X etiquetadas con detalles de la raza del paciente, un equipo internacional de investigadores sanitarios de EE.UU., Canadá y Taiwán probó su sistema con imágenes de rayos X que el software informático no había visto antes (y del que no tenía información adicional).

La IA pudo predecir la identidad racial del paciente que aparecía en esas imágenes con una precisión sorprendente, incluso cuando las exploraciones se tomaron de personas de la misma edad y el mismo sexo. El sistema alcanzó niveles del 90% con algunos grupos de imágenes.

«Nos propusimos realizar una evaluación exhaustiva de la capacidad de la IA para reconocer la identidad racial de un paciente a partir de imágenes médicas», escriben los investigadores en su artículo publicado.

«Demostramos que los modelos estándar de aprendizaje profundo de IA pueden ser entrenados para predecir la raza a partir de imágenes médicas con un alto rendimiento a través de múltiples modalidades de imágenes, que se mantuvo en condiciones de validación externa».

La investigación se hace eco de los resultados de un estudio anterior que descubrió que los escaneos de inteligencia artificial de las imágenes de rayos X tenían más probabilidades de pasar por alto los signos de enfermedad en las personas negras. Para evitar que esto ocurra, los científicos tienen que entender por qué se produce en primer lugar.

Una auditoría de 9 algoritmos utilizados por el Gobierno holandés

https://english.rekenkamer.nl/publications/reports/2022/05/18/an-audit-of-9-algorithms-used-by-the-dutch-government

El uso responsable de los algoritmos por parte de los organismos públicos es posible, pero no siempre es así en la práctica. El Tribunal de Cuentas de los Países Bajos descubrió que 3 de los 9 algoritmos que auditó cumplían todos los requisitos básicos, pero los otros 6 no lo hacían y exponían al gobierno a diversos riesgos: desde el control inadecuado del rendimiento y el impacto del algoritmo hasta el sesgo, la filtración de datos y el acceso no autorizado.

El tecno-optimismo: Un análisis, una evaluación y una modesta defensa

¿Qué es el tecno-optimismo y cómo se puede defender? Aunque los puntos de vista tecnooptimistas son ampliamente adoptados y criticados, ha habido pocos intentos de analizar sistemáticamente lo que significa ser tecnooptimista y cómo se puede defender este punto de vista. Este artículo trata de subsanar esta carencia proporcionando un análisis y una evaluación exhaustivos del tecno-optimismo. Se argumenta que el tecno-optimismo es una postura plural que se presenta en formas débiles y fuertes. Éstas varían en función de una serie de dimensiones clave, pero cada una de ellas comparte la opinión de que la tecnología desempeña un papel fundamental a la hora de garantizar que lo bueno prevalezca sobre lo malo. Sea cual sea su fuerza, para defender esta postura hay que desarrollar un argumento con cuatro premisas clave. Cada una de estas premisas es muy controvertida y puede ser objeto de varias críticas. El documento analiza en detalle cinco de estas críticas (la crítica de los valores, la crítica de la cinta de correr, la crítica de la sostenibilidad, la crítica de la irracionalidad y la crítica de la insuficiencia). El documento también considera las posibles respuestas de los tecno-optimistas. Finalmente, se concluye que, aunque las formas fuertes de tecno-optimismo no son intelectualmente defendibles, una versión modesta, basada en la agencia, del tecno-optimismo puede ser defendible. 

Estados Unidos advierte de la discriminación que supone el uso de la inteligencia artificial para seleccionar a los candidatos a un puesto de trabajo

https://www.npr.org/2022/05/12/1098601458/artificial-intelligence-job-discrimination-disabilities?s=03

El gobierno federal dijo el jueves que la tecnología de inteligencia artificial para seleccionar nuevos candidatos a un puesto de trabajo o supervisar la productividad de los trabajadores puede discriminar injustamente a las personas con discapacidad, enviando una advertencia a los empleadores de que las herramientas de contratación comúnmente utilizadas podrían violar las leyes de derechos civiles.

El Departamento de Justicia de Estados Unidos y la Comisión para la Igualdad de Oportunidades en el Empleo emitieron conjuntamente una guía para que los empleadores tengan cuidado antes de utilizar las populares herramientas algorítmicas destinadas a agilizar el trabajo de evaluación de los empleados y las perspectivas de empleo, pero que también podrían infringir la Ley de Estadounidenses con Discapacidades.

«Estamos haciendo sonar una alarma con respecto a los peligros vinculados a la dependencia ciega de la IA y otras tecnologías que estamos viendo cada vez más utilizadas por los empleadores», dijo el jueves a los periodistas la Fiscal General Adjunta Kristen Clarke, de la División de Derechos Civiles del departamento. «El uso de la IA está agravando la antigua discriminación a la que se enfrentan los solicitantes de empleo con discapacidades».

Los votantes de Wisconsin con discapacidades dicen que su derecho al voto está en riesgo

POLÍTICA

Los votantes de Wisconsin con discapacidades dicen que su derecho al voto está en riesgo

Entre los ejemplos que se dieron de herramientas populares de IA relacionadas con el trabajo estaban los escáneres de currículos, el software de supervisión de empleados que clasifica a los trabajadores en función de las pulsaciones del teclado, las pruebas en línea similares a un juego para evaluar las habilidades laborales y el software de entrevistas de vídeo que mide los patrones de habla o las expresiones faciales de una persona.

Esta tecnología podría descartar a personas con problemas de habla, artritis severa que ralentiza el tecleo o una serie de otros impedimentos físicos o mentales, dijeron los funcionarios.

Artificio e Inteligencia

Las palabras importan.

A partir de hoy, el Centro de Privacidad dejará de utilizar los términos «inteligencia artificial», «IA» y «aprendizaje automático» en nuestro trabajo para exponer y mitigar los daños de las tecnologías digitales en la vida de las personas y las comunidades.

Trataré de explicar lo que está en juego para nosotros en esta decisión con referencia al documento fundacional de Alan Turing, Computing Machinery and Intelligence, que es, por supuesto, más famoso por su descripción de lo que el propio documento llama «el juego de imitación», pero que ha llegado a ser conocido popularmente como «la prueba de Turing». En el juego de imitación participan dos personas (una de las cuales adopta el papel de «interrogador») y un ordenador. El objetivo es que el interrogador, separado físicamente del otro jugador y del ordenador, intente discernir mediante una serie de preguntas cuál de las respuestas a esas preguntas es producida por el otro humano y cuál por el ordenador. Turing proyecta que:

…dentro de unos cincuenta años será posible programar ordenadores, con una capacidad de almacenamiento de aproximadamente 10⁹, para que jueguen el juego de imitación tan bien que un interrogador medio no tendrá más del 70 por ciento, de posibilidades de hacer la identificación correcta después de cinco minutos de interrogatorio.

La mayor parte de la aceptación científica, política y creativa del juego de la imitación lo aborda (de forma crítica o defensiva) como una prueba de la inteligencia de las máquinas. Pero, por muy provocativa que sea la cuestión de la suficiencia del juego de imitación como prueba, no es la pregunta que el artículo de Turing pretende responder. De hecho, en los primeros párrafos del documento, explica que está sustituyendo la pregunta «¿pueden pensar las máquinas?» por la pregunta de si un humano puede confundir un ordenador con otro humano. No ofrece esta última pregunta como una heurística útil para la primera; no dice que piense que estas dos preguntas son versiones de la otra. Más bien, expresa la creencia de que la pregunta «¿pueden pensar las máquinas?» no tiene ningún valor, y parece esperar afirmativamente un futuro cercano en el que, de hecho, sea muy difícil, si no imposible, que los seres humanos se planteen la pregunta en absoluto:

La pregunta original, «¿Pueden pensar las máquinas? creo que carece de sentido como para merecer una discusión. Sin embargo, creo que a finales de siglo el uso de las palabras y la opinión generalizada se habrán modificado tanto que se podrá hablar de que las máquinas piensan sin esperar que se les contradiga.

Aunque no hay indicios de que estemos cerca de realizar la predicción más limitada de Turing de un ordenador que los seres humanos confundan con un ser humano, me preocupa que la predicción más amplia de Turing se haya cumplido. Ahora es bastante habitual, tanto en el periodismo como en la literatura popular y académica, leer que las máquinas no sólo «piensan» sino que realizan una amplia gama de actividades contemplativas y deliberativas, como «juzgar», «predecir», «interpretar», «decidir», «reconocer» y, por supuesto, «aprender». Los términos «inteligencia artificial», «IA» y «aprendizaje automático», sustituyen por doquier las escrupulosas descripciones que harían transparentes para el ciudadano medio las tecnologías a las que se refieren.

Nuestra falta de autoconciencia a la hora de utilizar, o consumir, un lenguaje que da por sentada la inteligencia de las máquinas no es algo que hayamos coevolucionado en respuesta a los avances reales en la sofisticación computacional del tipo que Turing, y otros, anticiparon. Más bien es algo a lo que nos hemos visto abocados en gran parte gracias a las campañas de marketing, y al control del mercado, de las empresas tecnológicas que venden productos informáticos cuya novedad no reside en ningún tipo de descubrimiento científico, sino en la aplicación de una potencia de procesamiento turboalimentada a los conjuntos de datos masivos que un enorme vacío de gobernanza ha permitido generar y/o extraer a las empresas. Este es el tipo de tecnología que ahora se vende bajo el término «inteligencia artificial».

Meredi

La nueva ciencia de la inteligencia alternativa

https://garymarcus.substack.com/p/the-new-science-of-alt-intelligence?s=03

Durante muchas décadas, parte de la premisa de la IA fue que la inteligencia artificial debía inspirarse en la inteligencia natural. John McCarthy, uno de los cofundadores de la IA, escribió artículos pioneros sobre por qué la IA necesitaba el sentido común; Marvin Minsky, otro de los cofundadores del campo de la IA, escribió un libro en el que se analizaba la mente humana en busca de inspiración y pistas sobre cómo construir una mejor IA. Herb Simon ganó el Premio Nobel de Economía del Comportamiento. Uno de sus libros clave se titulaba Models of Thought (Modelos de pensamiento), cuyo objetivo era explicar que «los lenguajes informáticos recién desarrollados expresan teorías de procesos mentales, de modo que los ordenadores pueden simular el comportamiento humano previsto».

A una gran parte de los investigadores actuales de la IA, o al menos a los que están en el poder, no les importa (hasta donde yo sé) nada de esto. En su lugar, la atención actual se centra en lo que llamaré (con agradecimiento a Naveen Rao por el término) Alt Intelligence.

La inteligencia alternativa no consiste en construir máquinas que resuelvan problemas de forma que tengan que ver con la inteligencia humana. Se trata de utilizar cantidades masivas de datos -a menudo derivados del comportamiento humano- como sustituto de la inteligencia. En estos momentos, la línea de trabajo predominante dentro de la Inteligencia Alternativa es la idea del escalamiento. La noción de que cuanto más grande sea el sistema, más cerca estaremos de la verdadera inteligencia, incluso de la conciencia.

No hay nada nuevo, per se, en el estudio de la Alt Intelligence, pero la arrogancia asociada a ella sí lo es.

Hace tiempo que vi señales de ello en el desprecio con el que las superestrellas actuales de la IA, y de hecho vastos segmentos de todo el campo de la IA, tratan la cognición humana, ignorando e incluso ridiculizando a los estudiosos de campos como la lingüística, la psicología cognitiva, la antropología y la filosofía.

Pero esta mañana me he despertado con una nueva reificación, un hilo de Twitter que expresa, en voz alta, el credo de la Alt Intelligence, de Nando de Freitas, un brillante ejecutivo de alto nivel de DeepMind, el ala de IA justamente venerada de Alphabet, en una declaración de que la IA es «todo sobre la escala ahora», De hecho, en su mente (tal vez expresado deliberadamente con vigor para ser provocativo), los desafíos más difíciles en la IA ya están resueltos («¡El juego ha terminado!», declara:

Traducción realizada con la versión gratuita del traductor http://www.DeepL.com/Translator

Cómo la minería de Bitcoin devastó esta ciudad de Nueva York

https://www.technologyreview.com/2022/04/18/1049331/bitcoin-cryptocurrency-cryptomining-new-york/?s=03

La criptodivisa se crea mediante ordenadores que resuelven complicadas ecuaciones matemáticas, un proceso que despegó después de que una empresa china llamada Bitmain empezara a vender en 2016 una máquina con circuitos integrados de aplicación específica que permitía realizar esta computación especializada mucho más rápidamente. «Casi de la noche a la mañana», dice Colin Read, profesor de economía y finanzas en la Universidad Estatal de Nueva York en Plattsburgh, «comenzó una carrera armamentística de criptominería».

Publicidad

Cada transacción de Bitcoin consume 1.173 kilovatios-hora

La gente comenzó a buscar en el mundo fuentes de energía baratas para hacer funcionar grandes granjas de minería de Bitcoin utilizando estos circuitos. La criptomoneda devora notoriamente la electricidad; cada transacción de Bitcoin consume 1.173 kilovatios-hora, más de lo que un estadounidense medio utiliza en un mes. En 2020, la minería de criptomonedas del mundo requería más energía que toda Suiza. En ese momento, Plattsburgh tenía una de las energías más baratas de Estados Unidos, gracias a la barata hidroelectricidad de la Niagara Power Authority. 

Traducción realizada con la versión gratuita del traductor http://www.DeepL.com/Translator

Las amenazas de la IA para el empleo y la felicidad humana son reales Pero el caos laboral a corto plazo dará paso a la prosperidad a largo plazo, afirma el experto en IA Kai-Fu Lee

https://spectrum.ieee.org/kai-fu-lee-ai-jobs

El reputado informático y experto en IA Kai-Fu Lee ve probable que se produzcan trastornos en los próximos 15 o 20 años, debido a que los sistemas «inteligentes» crearán puestos de trabajo en campos para los que los trabajadores desplazados por la IA no están bien formados. EMPRESAS DE SINOVACIÓN

Hay un movimiento en marcha para contrarrestar las narrativas distópicas y apocalípticas de la inteligencia artificial. A algunas personas del sector les preocupa que el hecho de que se hable con frecuencia de la IA como un riesgo existencial para la humanidad esté envenenando al público en contra de la tecnología y están presentando deliberadamente relatos más esperanzadores. Uno de estos esfuerzos es un libro que se publicó el pasado otoño titulado AI 2041: Ten Visions for Our Future.

El libro está coescrito por Kai-Fu Lee, un experto en IA que dirige la empresa de capital riesgo Sinovation Ventures, y Chen Qiufan, un autor de ciencia ficción conocido por su novela Waste Tide. Tiene un formato interesante. Cada capítulo comienza con una historia de ciencia ficción que describe algún aspecto de la IA en la sociedad del año 2041 (como los deepfakes, los coches autodirigidos y la educación mejorada por la IA), a la que sigue una sección de análisis de Lee que habla de la tecnología en cuestión y de las tendencias actuales que pueden llevar a ese futuro imaginado. No se trata de una visión utópica, pero los relatos muestran en general a la humanidad lidiando de forma productiva con los problemas que plantea el constante avance de la IA.

IEEE Spectrum habló con Lee sobre el libro, centrándose en los últimos capítulos, que abordan los grandes problemas del desplazamiento de puestos de trabajo, la necesidad de nuevos modelos económicos y la búsqueda de sentido y felicidad en una época de abundancia. Lee sostiene que los tecnólogos deben reflexionar seriamente sobre estos impactos sociales, en lugar de pensar sólo en la tecnología.

Diseña un sitio como este con WordPress.com
Comenzar