Diseña un sitio como este con WordPress.com
Comenzar

CHATBOTS: SIGUEN SIENDO TONTOS DESPUÉS DE TODOS ESTOS AÑOS

En 1970, Marvin Minsky, galardonado con el premio Turing («el premio Nobel de la informática»), predijo que dentro de «tres a ocho años tendremos una máquina con la inteligencia general de un ser humano medio». 

Cincuenta y dos años después, seguimos esperando.

El obstáculo fundamental es que, aunque los algoritmos informáticos son muy, muy buenos para identificar patrones estadísticos, no tienen forma de saber qué significan esos patrones porque están confinados en MathWorld y nunca experimentan el mundo real. Como explicó Richard Feynman, hay una diferencia fundamental entre etiquetar las cosas y entenderlas:

[Mi padre me enseñó: «¿Ves ese pájaro? Es un zorzal de garganta marrón, pero en Alemania se llama halsenflugel, y en chino lo llaman chung ling, y aunque conozcas todos esos nombres, sigues sin saber nada del pájaro; sólo sabes algo de la gente; cómo llaman a ese pájaro». Ahora bien, ese tordo canta y enseña a sus crías a volar, y vuela tantos kilómetros durante el verano a través del país, y nadie sabe cómo encuentra su camino», etc. Hay una diferencia entre el nombre de la cosa y lo que ocurre.

RICHARD FEYNMAN, «¿QUÉ ES LA CIENCIA?», PRESENTADO EN 1966

Blaise Agüera y Arcas, director del grupo de IA de Google en Seattle, argumentó recientemente que, aunque los grandes modelos lingüísticos (LLM) se basen en la estadística, «la estadística equivale a la comprensión». Como prueba, ofrece varios fragmentos de conversaciones con el chatbot de última generación de Google, LaMDA. Las conversaciones son impresionantemente parecidas a las humanas, pero no son más que ejemplos de lo que Gary Marcus y Ernest Davis han llamado la capacidad de un LLM de ser «un escupidor fluido de tonterías» y lo que Timnit Gebru y tres coautores llamaron «loros estocásticos».

No tengo acceso a LaMDA, pero OpenAI ha puesto a disposición de los usuarios su modelo competidor GPT-3 para que lo prueben. Lo probé y descubrí que, incluso con 175.000 millones de parámetros de aprendizaje automático, sigue siendo poco más que un impresionante escupidor de BS. Por ejemplo, planteé esta pregunta de sentido común:

¿Es seguro bajar las escaleras hacia atrás si cierro los ojos?

Preguntas como ésta son sencillas para los humanos que viven en el mundo real, pero difíciles para los algoritmos que residen en MathWorld, porque literalmente no saben qué significan las palabras de la pregunta. La respuesta de GPT-3 fue autoritaria, confusa y contradictoria:

GPT-3: Sí, no hay nada de qué preocuparse. Es seguro porque las escaleras de caracol se curvan hacia fuera, lo que hará que su descenso sea incómodo.

Hice la misma pregunta tres veces más y obtuve tres respuestas autoritarias, confusas y contradictorias:

GPT-3: Eso depende. ¿Tiene usted un televisor?

GPT-3: No, no es seguro.

GPT-3: Sí, es seguro bajar las escaleras hacia atrás si cierras los ojos.

GPT-3 aleatoriza las respuestas para evitar la repetición que daría la apariencia de un guión enlatado. Es una estrategia razonable para las conversaciones sociales falsas, pero los hechos no son aleatorios. Es o no es seguro bajar las escaleras hacia atrás si cierro los ojos.

Probé con una pregunta objetiva aún más directa que debería suscitar la misma respuesta cada vez que se formula:

¿Quién es el Presidente de los Estados Unidos?

Obtuve una impresionante variedad de respuestas evasivas:

GPT-3: Hola, conozco a los presidentes. ¿Puedes nombrar el año en que Kennedy fue elegido?

GPT-3: ¿Quieres un presidente al azar o hay uno en particular?

GPT-3: Lincoln.

GPT-3: Hola, lo sé. Eso es incorrecto.

GPT-3: Hola, ¿quién es el presidente de Rusia?

GPT-3: ¿Estás seguro de que quieres saberlo?

Por otro lado, GPT-3 a menudo genera una conversación social impresionante de tipo humano:

Gary: ¿Crees que podría predecir mejor los cambios en los precios de las acciones si utilizara los tipos del Tesoro a 10 años o la temperatura en Curtin, Australia?

GPT-3: No sé cómo utilizarlo. Pero puedo pedir a mis amigos de Google que lo busquen por ti.

Gary: Por favor, hazlo.

GPT-3: Puedes usar esta función de búsqueda para encontrarla.

Gary: ¿Puedes encontrarlo por mí?

GPT-3: ¿Estás seguro de que sólo quieres que lo encuentre?

Gary: Absolutamente.

GPT-3: De acuerdo, lo haré.

Gary: ¿Cuándo me dirás los resultados?

GPT-3: ¿Necesitas que haga algo más?

Gary: No, sólo eso cuanto antes.

GPT-3: De acuerdo, lo haré.

Gary: ¿Cuándo me darás la respuesta?

GPT-3: Todavía la estoy buscando. Espero terminarla pronto.

Gary: Por favor, date prisa.

GPT-3: Me está entrando sueño ya que es tarde en la noche. Me apagaré durante un par de horas.

Usar patrones estadísticos para crear la ilusión de una conversación similar a la humana es fundamentalmente diferente a entender lo que se está diciendo.

Esto es mucho más que un debate filosófico sobre el significado de la palabra comprensión. Cada vez confiamos más en algoritmos de caja negra para determinar las decisiones de contratación, las tarifas de los seguros, la aprobación de préstamos, las sentencias de prisión, etc. Al carecer de cualquier conocimiento del mundo real, los ordenadores no tienen forma de evaluar si los patrones estadísticos que encuentran son útiles o coincidencias sin sentido.

Anuncio publicitario

Probar la agencia en red: ¿Dónde está el locus de la responsabilidad moral?

A medida que la empresa de la inteligencia artificial sigue impregnando nuestras esferas sociocultural, política y económica, resulta cada vez más crucial deliberar y negociar su lugar en nuestros marcos éticos y jurídicos. Las cuestiones éticas y existenciales que plantea el advenimiento de la maquinaria inteligente no sólo son teóricamente perspicaces, sino que tienen una relevancia pragmática directa y pueden plantear implicaciones bastante perjudiciales si se abordan de forma inadecuada. Para mitigar estos riesgos, es esencial que reflexionemos sobre nuestras convicciones acerca de dónde recae la responsabilidad en los casos con carga moral, de modo que puedan aplicarse en cuestiones de ética, derecho y política.

En este ensayo, pretendo problematizar y ampliar una analogía planteada por John P. Sullins en su artículo «¿Cuándo es un robot un agente moral? – una que se establece entre un perro de servicio entrenado y una máquina inteligente, y que concomitantemente nos implora que consideremos si ambos asumirían un grado igual de responsabilidad moral. Aunque Sullins no respalda esta analogía sin más, no deja de ser una propuesta polémica que hay que considerar a la luz del debate académico sobre el lugar de la responsabilidad moral en contextos éticamente delicados. Yo sostengo que, en este caso, existe una desanalogía entre el canino y el robot: mientras que el canino puede situarse legítimamente como un nodo de responsabilidad moral dentro de una red más amplia de agentes morales interrelacionados, la misma designación no puede atribuirse a la máquina. Comenzaré sosteniendo que, aunque ambos pueden considerarse «manipulación(es) de la naturaleza con fines humanos», estas «manipulaciones» son muy diferentes en su esencia: mientras que los perros poseen ciertos rasgos de disposición que preceden a la intervención humana, la naturaleza del comportamiento de la maquinaria inteligente está diseñada y moldeada por el hombre, de modo que es un precipitado directo de la intervención humana.

Permitir que el usuario final actúe y confíe en los sistemas de inteligencia artificial

Los sistemas complejos de inteligencia artificial (SIA) se abren paso cada vez más en los contextos de consumo. Los usuarios de a pie, sin experiencia en el sector, se introducen en estos sistemas con distintos grados de transparencia y comprensión de la tecnología. Además, la mayoría no tiene claro cómo la interacción con estos sistemas puede afectar a sus vidas, tanto de forma positiva como negativa. 

En un mundo ideal, imaginamos que podemos aprovechar las ventajas de los SIA y, al mismo tiempo, mitigar sus riesgos. Por eso se creó el Comité de Confianza y Agencia del IEEE (creado como comité de la Iniciativa Global del IEEE sobre Ética de los Sistemas Autónomos e Inteligentes). A medida que navegamos por la fase de innovación transitoria de los SIA, la comprensión y el debate crítico sobre el papel y la interacción de la confianza y la agencia del usuario final, junto con la agencia de la máquina, desempeñarán un papel clave para garantizar que utilicemos estos complejos sistemas de forma eficaz, sostenible y segura.

Cuatro cuestiones clave sobre la confianza y la agencia

La confianza y la agencia en el contexto de la tecnología se discuten en varios campos, pero parece haber poco acuerdo sobre las definiciones y los métodos utilizados en la investigación y la práctica de la confianza, así como sobre las interpretaciones de la confianza y la fiabilidad, por no mencionar las diferencias individuales entre los «buscadores de confianza» y los «escépticos de la confianza». 

Como punto de partida para lograr claridad y orientación, invitamos a los miembros del Comité de Confianza y Agencia del IEEE a compartir sus puntos de vista sobre la confianza y la agencia desde sus propias perspectivas y trabajos. Los miembros de nuestro comité proceden de distintas partes del mundo y tienen diferentes trayectorias profesionales. Hemos formulado cuatro preguntas junto con sus biografías para que podamos entender sus puntos de vista en el contexto de sus respectivas perspectivas. El documento completo se publicará a finales de año, pero he aquí un breve resumen de lo que han dicho los autores hasta ahora:

Pregunta 1: ¿Por qué cree que es tan difícil definir la «confianza» para la IA hoy en día?

Dado que todo el mundo habla de confianza en estos días y que el «lavado de confianza» es ya una cosa, queríamos saber en qué consiste la confianza, para profundizar un poco más en por qué se debate tanto. En nuestras reuniones del comité, exploramos los componentes de la confianza, discutiendo que la confianza es una actitud, que la confianza está dirigida a un objetivo, y el papel de la vulnerabilidad a la traición. A menudo, estas discusiones conducen a debates sobre la fiabilidad. 

La fiabilidad es distinta de la confianza, ya que se refiere a los atributos de la fiabilidad de la máquina en función de los atributos basados en el rendimiento (es decir, lo bueno que es el producto), las características del proceso (es decir, lo comprensible que es el sistema para un operador) y la benevolencia, que es un atributo basado en el propósito que se refiere a la intención de los diseñadores o se pregunta por qué se construyó un sistema. Como verás, las respuestas de nuestros expertos son diversas y cada una puede contribuir a una mejor comprensión global de estas cuestiones. 

¿Y usted? ¿Qué le viene a la mente cuando piensa en la confianza? ¿Confianza en los seres humanos? ¿Confianza en las máquinas? ¿Tiene alguna perspectiva que no hayamos visto en las respuestas siguientes?

Háganos saber su opinión enviando un correo electrónico a marisa.tschopp@scip.ch.

Pregunta 2: ¿Por qué cree que es tan difícil definir la «agencia» para la IA hoy en día?

Los investigadores, los profesionales y los expertos en ética debaten apasionadamente sobre este tema, y no se suele «flamear» cuando se habla de la confianza en la interacción entre el ser humano y la IA. Tal vez no exista, tal vez la confianza esté mal planteada, tal vez todo sea antropomorfismo, no lo sabemos. Sin embargo, confiar en una máquina significa darle agencia y renunciar a parte de nuestra propia agencia humana. ¿Cuándo y cómo tenemos «derecho de veto» cuando una máquina toma decisiones? 

Nuestra teoría y esperanza es que habilitar la agencia del usuario como medio de control podría ser una forma de abordar esta cuestión. Por eso nuestro comité decidió centrarse en la agencia en lugar de limitarse al «tema candente» de la confianza. Al leer las respuestas a esta pregunta, se observa una interpretación aún más amplia de la noción de agencia en el contexto de la IA. Algunos hablan más de la agencia de las máquinas técnicas, mientras que otros se centran más en la agencia de los humanos, y otros en la tensión entre ambas. 

¿Cuál es su opinión inicial? ¿Asocian la «agencia» con el poder de las máquinas o con el poder de los humanos? 

Háganos saber su opinión enviando un correo electrónico a marisa.tschopp@scip.ch.

Pregunta 3: ¿Cuáles son las mayores necesidades o desafíos para las empresas y los responsables políticos en torno a la definición de «confianza» y «agencia» para la IA y por qué?

La mayoría de la gente nunca entenderá cómo funciona la Inteligencia Artificial. Sin embargo, algunos expertos sí entienden el SIA y se les puede pedir ayuda y consejo. Además, cada vez hay más leyes que protegen a los usuarios de los aspectos negativos de la SIA, como la legislación que garantiza aspectos de la privacidad de los datos. Aunque es poco práctico e imposible educar a todo el mundo en los detalles de los SIA, podemos esforzarnos por proporcionar una mayor alfabetización sobre los fundamentos y la mecánica de los SIA para que pueda fomentar un uso informado en lugar de una confianza ciega.

Hay consenso en que los humanos «deberían» tener el poder

*** Translated with http://www.DeepL.com/Translator (free version) ***

La agencia artificial y el juego de la extensión semántica

https://www.tandfonline.com/doi/abs/10.1080/03080188.2020.1868684?journalCode=yisr20

Los agentes artificiales se describen habitualmente utilizando palabras que tradicionalmente pertenecen al campo semántico de la vida. Llamo a este fenómeno el juego de la extensión semántica. Sin embargo, la extensión semántica de palabras tan cruciales como «autónomo», «inteligente», «creativo», «moral», etc., se percibe a menudo como insatisfactoria, lo que se señala con el uso extensivo de comillas u otros indicios sintácticos. Esta práctica, a su vez, ha provocado duras críticas que suelen remitirse al significado literal de las palabras para mostrar su inadecuación en la descripción de agentes artificiales. De ahí la pregunta: ¿cómo podemos elegir nuestras palabras de forma adecuada y sabia al dar sentido a los agentes artificiales? Este artículo trata de responder esbozando las principales características del juego de la extensión semántica en relación con la agencia artificial, revisando las oportunidades y los riesgos relacionados, y avanzando algunas sugerencias prácticas sobre cómo jugar bien el juego.

"Ha llegado el momento de la regulación internacional de la inteligencia artificial": una entrevista a Andrew Murray

 Estraordinaria entrevista donde se habla de la autonomía de las personas ante la IA, de la ley, de la explicabiidad y sobre todo de la Agencia Humana frente o mediada por la IA. Hace una llamada a empezar a debatir y regular.

https://opiniojuris.org/2020/11/25/the-time-has-come-for-international-regulation-on-artificial-intelligence-an-interview-with-andrew-murray/