La investigación en inteligencia artificial puede haber llegado a un callejón sin salida

https://www.salon.com/2021/04/30/why-artificial-intelligence-research-might-be-going-down-a-dead-end/

La icónica novela de ciencia ficción de 1968 de Philip K. Dick, «¿Sueñan los androides con ovejas eléctricas?» planteó una pregunta intrigante en su título: ¿soñaría un robot inteligente?

En los 53 años transcurridos desde la publicación, la investigación en inteligencia artificial ha madurado significativamente. Y, sin embargo, a pesar de que Dick es profético sobre la tecnología de otras maneras, la pregunta planteada en el título no es algo en lo que los investigadores de IA estén tan interesados; nadie está intentando inventar un androide que sueñe con ovejas eléctricas.

¿Por qué? Principalmente, es que la mayoría de los investigadores y científicos de inteligencia artificial están ocupados tratando de diseñar software «inteligente» programado para realizar tareas específicas. No hay tiempo para soñar despierto.

¿O hay? ¿Y si la razón y la lógica no son la fuente de la inteligencia, sino su producto? ¿Y si la fuente de la inteligencia es más parecida a soñar y jugar?

Investigaciones recientes sobre la «neurociencia de las fluctuaciones espontáneas» apuntan en esta dirección. De ser cierto, sería un cambio de paradigma en nuestra comprensión de la conciencia humana. También significaría que casi todas las investigaciones sobre inteligencia artificial van en la dirección equivocada.

Cuidado de la salud A.I. Necesita ser real

https://onezero.medium.com/health-care-a-i-needs-to-get-real-4aba0ae1241c

Estoy emocionado de hablar con Muhammad Aurangzeb Ahmad. Muhammad es el científico investigador principal de KenSci, inc., Una empresa especializada en A.I. en el cuidado de la salud y profesor afiliado en el departamento de informática de la Universidad de Washington Bothell. Conozco a Muhammad desde hace mucho tiempo. Cuando comencé a enseñar filosofía en el Instituto de Tecnología de Rochester, él fue uno de mis primeros estudiantes. A lo largo de los años, nos hemos mantenido en contacto a medida que Muhammad obtuvo su doctorado en ciencias de la computación y, finalmente, se convirtió en un notable científico de datos e inteligencia artificial. investigador. Los intereses de Mahoma en la filosofía nunca han vacilado. A menudo me dirijo a él cuando necesito una explicación holística de las tendencias y controversias tecnológicas.

Nuestra conversación ha sido editada y condensada para mayor claridad.

Evan Selinger: Con tanto dolor durante la pandemia, incluidos desafíos financieros masivos, fueron necesarias respuestas adaptativas. Muchos dependían de la innovación tecnológica, desde plataformas de comunicación en línea que facilitaban la enseñanza y el trabajo remotos hasta robots móviles que mantenían limpios los lugares. A pesar de las grandes esperanzas de la IA médica, Stanford Medicine generó titulares negativos. Seleccionó un software para determinar qué trabajadores deberían recibir prioridad para la vacuna Pfizer durante la primera ola de distribución, y los algoritmos crearon resultados deficientes. Favoreció a los médicos de menor riesgo sobre los residentes médicos que trabajaban en estrecha proximidad física a los pacientes de Covid-19. ¿Por qué el sistema eligió a las personas equivocadas?

Muhammad Ahmad: La prensa inicialmente describió erróneamente el software como un sistema de aprendizaje automático. Sin embargo, era un sistema simple basado en reglas. En otras palabras, los programadores humanos dieron las reglas del software a seguir. Estas reglas crearon un protocolo para quién debería vacunarse primero. Aquí está lo interesante. Si uno mira cada regla individualmente, todas son sensatas. Ninguno expresa nada objetable. Sin embargo, cuando se combinan las reglas, resultan ser más que la suma de su parte. En conjunto, dirigen una computadora a resultados no óptimos.

Básicamente, las personas bien intencionadas creían que la automatización podría brindarles los mejores resultados para una situación tensa. Pero al diseñar su sistema, no apreciaron completamente algo esencial para construir cualquier modelo: pueden ocurrir interacciones no lineales.

Evan: Para reducir lo sucedido a un eslogan con un atractivo más amplio, ¿podemos decir lo siguiente? ¡No reconocer la complejidad puede socavar la equidad!

Muhammad: Eso es justo.

Evan: Ya que estás enfatizando las buenas intenciones de todos, me pregunto si hay otro punto conflictivo. ¿Cree que la urgencia de la pandemia se interpuso en el camino de las pruebas suficientes, pruebas que podrían haber revelado este problema?

Muhammad: Esa es mi mejor suposición. Estoy seguro de que volveremos a este punto a lo largo de nuestra conversación. Los modelos que se ven bien en condiciones de laboratorio no siempre funcionan bien en el mundo real. A veces tienen prisa y deberían haber pasado más tiempo en el laboratorio. Otras veces, los supuestos rectores del laboratorio son incorrectos.

Evan: Continuando con este tema, ¿qué opina de que IBM esté considerando vender Watson Health? IBM es una empresa multinacional de tecnología veterana, y apostó por Watson. El A.I. El sistema es incluso famoso ante el público por mostrar sus habilidades de procesamiento del lenguaje natural durante su victoria en Jeopardy hace una década. Nunca olvidaré cuando Ken Jennings, un concursante que ganó tantos juegos consecutivos que ganó más de $ 3 millones, terminó su aplastante derrota diciéndole al mundo: «Yo, por mi parte, doy la bienvenida a nuestros nuevos señores de las computadoras». No es necesario ser freudiano para reconocer cuándo el humor transmite una verdad incómoda.

La insoportable superficialidad de la «IA profunda»

https://www.fairobserver.com/business/technology/william-softky-cade-metz-book-genius-makers-artificial-intelligence-ai-tech-technology-news-91649/

El punto más importante es que la IA no se basa en absoluto en el cerebro. La mejor cita proviene del científico informático Alex Krizhevsky: «El aprendizaje profundo no debería llamarse IA … Fui a la escuela de posgrado para establecer curvas». Señala que el aprendizaje profundo es en realidad solo una forma de matemática llamada «regresión no lineal». Inferencia matemática para estadísticas complejas, no un cerebro en absoluto.

¡Pero qué forma de aprendizaje profundo matemático es! Se fundó sobre los principios científicos más fiables posibles, los de la termodinámica y la teoría de la información (que comparten conceptos cruciales en común, como la entropía). Esos principios gemelos iluminan doblemente el objetivo de un motor de inferencia definitivo, por lo que los investigadores podrían acertarlo directamente.

Las tareas específicas establecidas para la IA variaron de generales a específicas. El objetivo más general de la IA, en común con todas las tareas, era «aprender» (es decir, mapear y destilar) la estructura subyacente de un espacio de datos objetivo tras la exposición a sus datos. Las tareas más específicas fueron reconocer ejemplos del espacio objetivo, categorizarlos o usarlos para controlar datos futuros.

Los investigadores asumieron prácticamente todas las tareas posibles comercialmente viables o dignas de publicidad: reconocimiento facial, reconocimiento de voz, síntesis de voz, traducción de voz, traducción de texto, clasificación de imágenes, análisis de imágenes y síntesis de imágenes.

¿Qué hace que una tarea sea comercialmente viable? Algo en lo que los humanos no somos buenos. Los seres humanos son muy buenos para ver, oír y tocar el mundo real. Cuanto más lejos o más abstracta sea la tarea, peor lo hacemos. En general, las IA son lo contrario. Entonces, una IA que analiza hojas de cálculo o programas de computadora podría ser rentable, pero no una que compita en nuestro territorio nativo, digamos, identificando cruces peatonales o hablando con sentido común porque los humanos son baratos y abundantes y ya lo hacemos bien. Las IA más rentables y, por lo tanto, las que probablemente se apoderarán del mundo más rápido, reemplazan a los humanos en lo que se les paga por hacer, como «recoger» artículos de las cajas de Amazon (un problema ahora resuelto).

El impacto de la IA en el periodismo

Al principio, la mayoría de las herramientas de Natural Language Generation (NLG) que producen estos artículos fueron proporcionadas por empresas de software como Narrative Science. Hoy en día, muchas organizaciones de medios han desarrollado versiones internas. La BBC tiene Juicer, el Washington Post tiene Heliograf y casi un tercio del contenido publicado por Bloomberg es generado por un sistema llamado Cyborg. Estos sistemas comienzan con datos: gráficos, tablas y hojas de cálculo. Los analizan para extraer hechos particulares que podrían formar la base de una narrativa. Generan un plan para el artículo y, finalmente, elaboran oraciones utilizando software de generación de lenguaje natural.

Estos sistemas solo pueden producir artículos en los que se disponga de datos altamente estructurados como entrada, como un video de un partido de fútbol o datos de hoja de cálculo del rendimiento anual de una empresa. No pueden escribir artículos con estilo, imaginación o análisis en profundidad. Como resultado, no han despedido a miles de periodistas. En cambio, han aumentado drásticamente el número de artículos de nicho que se escriben.

https://www.forbes.com/sites/calumchace/2020/08/24/the-impact-of-ai-on-journalism/#56a513d82c46

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La equidad que persigue la UE no puede ser automatizada

La equidad algorítmica se basa en fórmulas de equilibrio entre grupos. Sin embargo, la legislación de la UE pretende una equidad dependiente del contexto y frecuentemente depende del juez, lo que es imposible de lograr con fórmulas. Así que es necesario simplificar y concretar las exigencias legislativas.

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3547922

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Las Guías de Ética de la IA no resolverán los problemas

Recientemente la UE ha publicado un libro blanco sobre guías éticas de la IA incluyendo preocupaciones sobre privacidad y dignidad humana. También el Pentágono ha finalizado las suyas. Oxford también ha lanzado un programa para mantener la IA recta y estrecha y el WorldEconomic Forum ha resaltado las profundas implicaciones morales de la IA.

En el fondo el miedo está detrás. Las anteriores tecnologías se podían controlar pero la IA reemplazará nuestras ideas. Los dispositivos de ahorro de trabajo se convierten en máquinas de toma de decisiones que operan en un vacío moral.

Hasta ahora las peticiones han ido a los programadores que escriben los algoritmos. El problema es que la IA aprende por sí misma. El rumbo que toman se inicia por quienes inician el código.

Lo que está en juego es mucho en cuanto el Pentágono quiere automatizar la toma de decisiones. La UE, el WEF y el Pentágono pueden estar alarmados por la ética de la IA, pero en realidad son los mismos problemas de siempre en technicolor, problemas nunca resueltos y que probablemente nunca lo serán.

Los problemas éticos siguen estando ahí desde Aristóteles. Si Newton y Einstein resolvieron la física, se espera que la IA resuelva la ética, pero laética es un problema diferente. Los humanos tomamos decisiones, instintivamente identificamos el bien y el mal en distintas cosas el mismo tiempo, los motivos tras una elección, el tipo de acción que hacemos y sus consecuencias. La IA actual se centra en una cosa al mismo tiempo, pero siempre se dejará algo fuera.

Entonces, si un sistema de IA está seguro de qué hacer cuando las buenas acciones conducen a un mal resultado, o cuando los malos motivos ayudan a las personas, deberíamos ser muy cautelosos: estaría ofreciendo claridad moral cuando realmente no hay ninguna.

Es concebible que la IA, en lugar de ser una causa de problemas morales, pueda ayudar a resolverlos. Al usar big data para anticipar el futuro y al ayudarnos a resolver lo que sucedería si todos siguieran ciertas reglas, la inteligencia artificial hace que la ética basada en reglas y consecuencias sea mucho más fácil. Aplicada cuidadosamente, la IA podría ayudar a responder algunos dilemas morales difíciles. En unos pocos años, el mejor consejo ético puede venir incluso de una aplicación en nuestros teléfonos.

Tanto el enfoque de la Comisión Europea como el del Pentágono dejan abierta esa posibilidad.

Sin embargo, no significaría que se hayan resuelto los profundos problemas éticos planteados por la ética artificial. Nunca se resolverán, porque no tienen una solución única y segura.

https://www.wearethemighty.com/military-culture/ai-guidelines-wont-solve-ethics

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El problema de mas métricas y la IA

Con frecuencia los modelos de IA buscan optimizar algún tipo de métrica lo que conduce a planteamientos miopes cortoplacistas. Propone un framework para mitigar los daños de sobrevalorar las métricas.

https://arxiv.org/abs/2002.08512

por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La nieve y el hielo, un molesto obstáculo para los vehículos autónomos

La mayor parte de las pruebas de vehículos autónomos se realizan en lugares cálidos. Para llegar a ser útiles en cualquier lugar, eso debe cambiar.

La nieve, el hielo, la niebla, añaden serias dificultades en el reconocimiento equivocado de señales, de peatones, etc

https://www.wired.com/story/snow-ice-pose-vexing-obstacle-self-driving-cars/

por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Crea tu sitio web con WordPress.com
Comenzar