Diseña un sitio como este con WordPress.com
Comenzar

El riesgo existencial de la IA y la ortogonalidad: ¿Podemos tenerlo todo?

https://onlinelibrary.wiley.com/doi/full/10.1111/rati.12320#.YZLnhBoccAM.twitter

El argumento estándar para concluir que la inteligencia artificial (IA) constituye un riesgo existencial para la especie humana utiliza dos premisas: (1) La IA puede alcanzar niveles superinteligentes, momento en el que los humanos perderemos el control (la «afirmación de la singularidad»); (2) Cualquier nivel de inteligencia puede ir unido a cualquier objetivo (la «tesis de la ortogonalidad»). La tesis de la singularidad requiere una noción de «inteligencia general», mientras que la tesis de la ortogonalidad requiere una noción de «inteligencia instrumental». Si esta interpretación es correcta, no pueden unirse como premisas y el argumento del riesgo existencial de la IA resulta inválido. Si la interpretación es incorrecta y ambas premisas utilizan la misma noción de inteligencia, entonces al menos una de las premisas es falsa y la tesis de la ortogonalidad sigue siendo en sí misma ortogonal al argumento del riesgo existencial de la IA. En cualquier caso, el argumento estándar del riesgo existencial de la IA no es sólido. -Dicho esto, sigue existiendo el riesgo de que la IA instrumental cause daños muy importantes si se diseña o utiliza mal, aunque esto no se debe a la superinteligencia o a una singularidad.

Anuncio publicitario

Cognición sin computación Que una teoría sea antigua no significa que sea correcta

https://spectrum.ieee.org/cognition-without-computation

Voy a decirlo sin rodeos: la cognición humana podría no tener nada que ver con la computación.

Sí, soy muy consciente de que la teoría computacional de la mente es una teoría muy arraigada, que comenzó con los trabajos de Warren McCulloch y Walter Pitts en Chicago a principios de los años 40, y más tarde en el MIT, donde se les unieron Jerome Lettvin y Humberto Maturana. Pero a lo largo de la historia de la humanidad, muchas teorías se han mantenido de forma generalizada pero errónea, a veces durante décadas.

Pensemos en la teoría del flogisto de la combustión. Durante más de un siglo, a partir de 1667, la mayoría de los científicos creyeron que lo que hacía arder cosas dispares era una sustancia común, más tarde llamada flogisto, que se disipaba en el aire a través del fuego. El aire sólo tenía una capacidad finita para absorberla, lo que explicaba por qué el fuego se extinguía si sólo había una pequeña cantidad de aire disponible.

A finales del siglo XIX, la física newtoniana era bastante buena para explicar el comportamiento de los objetos físicos del universo que podían observarse directamente. Pero justo a principios del siglo XX, Einstein propuso dos revoluciones casi a la vez, las ideas de la relatividad y de que la energía estaba cuantizada. La consecuencia de la segunda es la mecánica cuántica. Más de 100 años después, sus consecuencias se siguen descubriendo y a menudo se sigue sin creer en ellas. El entrelazamiento cuántico, que está dando lugar a nuevas formas de comunicaciones seguras, todavía se describe rutinariamente como «espeluznante». Medir una propiedad en un lugar puede hacer que algo cambie en otro, y con un tiempo de reacción más rápido que la velocidad de la luz.

Una verdad incómoda sobre la IA La IA no superará la inteligencia humana en breve

https://spectrum.ieee.org/rodney-brooks-ai

ESTAMOS EN LA TERCERA OLA DE GRANDES INVERSIONES EN INTELIGENCIA ARTIFICIAL. Así que es un buen momento para adoptar una perspectiva histórica sobre el éxito actual de la IA. En los años sesenta, los primeros investigadores de la IA solían predecir con entusiasmo que las máquinas inteligentes de nivel humano estaban a sólo 10 años de distancia. Esa forma de IA se basaba en el razonamiento lógico con símbolos y se llevaba a cabo con lo que hoy parecen ordenadores digitales ridículamente lentos. Esos mismos investigadores consideraron y rechazaron las redes neuronales.

Este artículo forma parte de nuestro informe especial sobre la IA, «The Great AI Reckoning».

En la década de 1980, la segunda era de la IA se basó en dos tecnologías: los sistemas expertos basados en reglas -una forma más heurística de razonamiento lógico basado en símbolos- y un resurgimiento de las redes neuronales provocado por la aparición de nuevos algoritmos de entrenamiento. Una vez más, se hicieron predicciones sobre el fin del dominio humano en la inteligencia.

La tercera y actual era de la IA surgió a principios de la década de 2000 con nuevos sistemas de razonamiento simbólico basados en algoritmos capaces de resolver una clase de problemas llamados 3SAT y con otro avance llamado localización y mapeo simultáneos. El SLAM es una técnica para construir mapas de forma incremental mientras un robot se mueve por el mundo.

A principios de la década de 2010, esta ola cobró un nuevo y poderoso impulso con el auge de las redes neuronales que aprenden a partir de conjuntos de datos masivos. Pronto se convirtió en un tsunami de promesas, bombo y platillo y de aplicaciones rentables.

Independientemente de lo que se piense sobre la IA, la realidad es que casi todas las implantaciones con éxito tienen uno de los dos expedientes: Tiene una persona en algún lugar del bucle, o el coste del fracaso, en caso de que el sistema cometa un error, es muy bajo. En 2002, iRobot, una empresa de la que fui cofundador, presentó el primer robot autónomo de limpieza del hogar para el mercado de masas, el Roomba, a un precio que limitaba enormemente la cantidad de IA que podíamos dotar. Sin embargo, la limitada IA no era un problema. En nuestros peores escenarios de fracaso, la Roomba se saltaba un trozo de suelo y no recogía una bola de polvo.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Para crear la AGI, necesitamos una nueva teoría de la inteligencia

https://bdtechtalks.com/2021/08/05/artificial-intelligence-considered-response/amp/

Durante décadas, los científicos han intentado crear imitaciones computacionales del cerebro. Y durante décadas, el santo grial de la inteligencia general artificial, ordenadores que puedan pensar y actuar como los humanos, ha seguido eludiendo a científicos e investigadores.

¿Por qué seguimos replicando algunos aspectos de la inteligencia pero no conseguimos generar sistemas que puedan generalizar sus habilidades como los humanos y los animales? Un informático que lleva tres décadas trabajando en la IA cree que, para superar los obstáculos de la IA estrecha, debemos considerar la inteligencia desde una perspectiva diferente y más fundamental.

En un artículo presentado en el congreso Brain-Inspired Cognitive Architectures for Artificial Intelligence (BICA*AI), Sathyanaraya Raghavachary, profesor asociado de informática de la Universidad del Sur de California, habla de la «respuesta considerada», una teoría que puede generalizarse a todas las formas de vida inteligente que han evolucionado y prosperado en nuestro planeta.

Bajo el título «La inteligencia: ¡considera esto y responde!», el artículo arroja luz sobre las posibles causas de los problemas que han perseguido a la comunidad de la IA durante décadas y extrae importantes conclusiones, entre ellas la consideración de la corporeidad como requisito previo para la AGI.

Estructuras y fenómenos

«Las estructuras, desde el nivel microscópico hasta el humano y el cósmico, orgánicas e inorgánicas, exhiben (‘responden con’) fenómenos a causa de sus disposiciones espaciales y temporales, bajo condiciones externas a las estructuras», escribe Raghavachary en su artículo.

Se trata de una regla general que se aplica a todo tipo de fenómenos que vemos en el mundo, desde las moléculas de hielo que se vuelven líquidas en respuesta al calor, hasta las dunas de arena que se forman en respuesta al viento, pasando por la disposición del sistema solar.

Raghavachary llama a esto «esfenómica», un término que acuñó para diferenciarlo de la fenomenología, la fenomenalidad y el fenomenalismo.

«Todo en el universo, a cualquier escala, desde la subatómica hasta la galáctica, puede verse como estructuras físicas que dan lugar a fenómenos apropiados, es decir, S->P», dijo Raghavachary a TechTalks.

Raghavachary cree que las estructuras biológicas pueden considerarse del mismo modo. En su artículo, señala que el mundo natural comprende una variedad de organismos que responden a su entorno. Estas respuestas pueden verse en cosas sencillas como los mecanismos de supervivencia de las bacterias, así como en fenómenos más complejos como el comportamiento colectivo que muestran las abejas, las hormigas y los peces, así como la inteligencia de los seres humanos.

«Visto así, los procesos vitales, de los que considero la inteligencia biológica -y, en su caso, incluso la conciencia- se producen únicamente como resultado de estructuras físicas subyacentes», dijo Raghavachary. «La vida que interactúa con el entorno (que incluye otra vida, grupos…) también se produce como resultado de estructuras (por ejemplo, cerebros, colmillos de serpiente, polen pegajoso…) que exhiben fenómenos. Los fenómenos son las respuestas de las estructuras».

La inteligencia como respuesta considerada

banco de peces

En los objetos inanimados, las estructuras y los fenómenos no han evolucionado ni se han diseñado explícitamente para apoyar procesos que llamaríamos «vida» (por ejemplo, una cueva que produce ruidos de aullidos cuando pasa el viento). Por el contrario, los procesos vitales se basan en estructuras que consideran y producen fenómenos de respuesta.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Descubrir características universales: Cómo mejora la formación adversarial la transferibilidad adversaria

https://openreview.net/pdf?id=tzModtpOW7l

Los ejemplos adversos para las redes neuronales son

se sabe que son transferibles: los ejemplos optimizados

para ser clasificados erróneamente por una red «origen» suelen ser clasificados erróneamente por otras redes «destino».

En este caso, demostramos que el entrenamiento de la red de origen

para que sea «ligeramente robusta» -es decir, robusta a los ejemplos adversos de pequeña magnitud- mejora sustancialmente

mejora la transferibilidad de los ataques dirigidos,

incluso entre arquitecturas tan diferentes como las redes neuronales convolucionales y los transformadores. De hecho

demostramos que estos ejemplos adversarios pueden transferir características de la capa de representación (penúltima) sustancialmente mejor que los ejemplos adversarios generados con redes no robustas. Argumentamos que este

resultado apoya una hipótesis no intuitiva: las redes ligeramente

robustas presentan características universales, que tienden a

que tienden a solaparse con las características aprendidas por

todas las demás redes entrenadas en el mismo conjunto de datos.

Esto sugiere que las características de una sola red neuronal ligeramente robusta pueden ser útiles para obtener

de las características de todas las redes neuronales no robustas entrenadas con la misma distribución.

Traducción realizada con la versión gratuita del traductor http://www.DeepL.com/Translator

Necesitamos diseñar la desconfianza en los sistemas de IA para hacerlos más seguros

https://www.technologyreview.com/2021/05/13/1024874/ai-ayanna-howard-trust-robots/

He notado que utiliza el término «inteligencia humanizada» para describir su investigación, en lugar de «inteligencia artificial». ¿Porqué es eso?

Sí, comencé a usar eso en un artículo en 2004. Estaba pensando en por qué trabajamos en inteligencia para robótica y sistemas de inteligencia artificial. No es que queramos crear estas funciones inteligentes fuera de nuestras interacciones con las personas. Estamos motivados por la experiencia humana, los datos humanos, las aportaciones humanas. La «inteligencia artificial» implica que es un tipo diferente de inteligencia, mientras que la «inteligencia humanizada» dice que es inteligente pero está motivada por la construcción humana. Y eso significa que cuando creamos estos sistemas, también nos aseguramos de que tengan algunos de nuestros valores sociales.

¿Cómo llegaste a este trabajo?

Fue principalmente motivado por mi investigación de doctorado. En ese momento, estaba trabajando en la formación de un robot manipulador para eliminar los peligros en un hospital. Esto fue en los días en que no tenías esos lugares agradables y seguros para colocar agujas. Las agujas se arrojaron a la misma basura que todo lo demás, y hubo casos en los que los trabajadores del hospital se enfermaron. Entonces estaba pensando en: ¿Cómo se diseñan robots para ayudar en ese entorno?

Así que, desde el principio, se trataba de construir robots que fueran útiles para las personas. Y fue reconocer que no sabíamos cómo construir robots para hacer muy bien algunas de estas tareas. Pero la gente los hace todo el tiempo, así que imitemos cómo lo hace la gente. Así es como empezó.

Luego estuve trabajando con la NASA y tratando de pensar en la futura navegación del rover de Marte. Y nuevamente, fue como: Los científicos pueden hacer esto muy, muy bien. Entonces, haría que los científicos teleoperaran estos rovers y miraran lo que estaban viendo en las cámaras de estos rovers, y luego tratarían de correlacionar cómo conducen en función de eso. Ese fue siempre el tema: ¿Por qué no voy a los expertos humanos, codifico lo que están haciendo en un algoritmo y luego hago que el robot lo entienda?

¿Estaban otras personas pensando y hablando sobre la inteligencia artificial y la robótica de esta manera centrada en el ser humano en ese entonces? ¿O eras un extraño atípico?

Oh, yo era un caso atípico totalmente extraño. Veía las cosas de manera diferente a todos los demás. Y en ese entonces no había una guía sobre cómo hacer este tipo de investigación. De hecho, cuando miro hacia atrás para ver cómo hice la investigación, lo haría de manera totalmente diferente. Existe toda esta experiencia y conocimiento que desde entonces ha surgido en el campo.

«Nunca tendremos una verdadera IA sin primero comprender el cerebro»

https://www.technologyreview.com/2021/03/03/1020247/artificial-intelligence-brain-neuroscience-jeff-hawkins/

La búsqueda de la IA siempre se ha tratado de intentar construir máquinas que piensen, al menos en cierto sentido. Pero la cuestión de cuán parecidas deberían ser la inteligencia artificial y la biológica ha dividido la opinión durante décadas. Los primeros esfuerzos para construir IA involucraron procesos de toma de decisiones y sistemas de almacenamiento de información que se inspiraron vagamente en la forma en que los humanos parecían pensar. Y las redes neuronales profundas de hoy en día se inspiran vagamente en la forma en que las neuronas interconectadas se activan en el cerebro. Pero la inspiración suelta suele llegar hasta donde llega.

La mayoría de las personas en IA no se preocupan demasiado por los detalles, dice Jeff Hawkins, neurocientífico y emprendedor tecnológico. Quiere cambiar eso. Hawkins ha estado a caballo entre los dos mundos de la neurociencia y la IA durante casi 40 años. En 1986, después de unos años como ingeniero de software en Intel, se presentó en la Universidad de California, Berkeley, para comenzar un doctorado en neurociencia, con la esperanza de descubrir cómo funcionaba la inteligencia. Pero su ambición chocó contra una pared cuando le dijeron que no había nadie allí para ayudarlo con un proyecto tan grande. Frustrado, cambió Berkeley por Silicon Valley y en 1992 fundó Palm Computing, que desarrolló PalmPilot, un precursor de los teléfonos inteligentes actuales.

Pero su fascinación por los cerebros nunca desapareció. Quince años después, regresó a la neurociencia y estableció el Centro Redwood de Neurociencia Teórica (ahora en Berkeley). Hoy dirige Numenta, una empresa de investigación en neurociencias con sede en Silicon Valley. Allí, él y su equipo estudian la neocorteza, la parte del cerebro responsable de todo lo que asociamos con la inteligencia. Después de una serie de avances en los últimos años, Numenta cambió su enfoque de los cerebros a la IA, aplicando lo que había aprendido sobre la inteligencia biológica a las máquinas.

Las ideas de Hawkins han inspirado a grandes nombres de la IA, incluido Andrew Ng, y han recibido elogios de personas como Richard Dawkins, quien escribió un entusiasta prólogo del nuevo libro de Hawkins A Thousand Brains: A New Theory of Intelligence, publicado el 2 de marzo.

Tuve una larga charla con Hawkins en Zoom sobre lo que significa su investigación sobre el cerebro humano para la inteligencia de las máquinas. No es el primer emprendedor de Silicon Valley que piensa que tiene todas las respuestas, y es probable que no todos estén de acuerdo con sus conclusiones. Pero sus ideas podrían revolucionar la IA.

Esta investigadora dice que la inteligencia artificial no es ni artificial ni inteligente.

https://www.wired.com/story/researcher-says-ai-not-artificial-intelligent/

https://www.theguardian.com/technology/2021/jun/06/microsofts-kate-crawford-ai-is-neither-artificial-nor-intelligent

A LAS EMPRESAS DE TECNOLOGÍA LES GUSTA presentar la inteligencia artificial como una herramienta precisa y poderosa para el bien. Kate Crawford dice que la mitología tiene fallas. En su libro Atlas of AI, visita una mina de litio, un almacén de Amazon y un archivo de cráneos frenológicos del siglo XIX para ilustrar los recursos naturales, el sudor humano y la mala ciencia que sustentan algunas versiones de la tecnología. Crawford, profesor de la Universidad del Sur de California e investigador de Microsoft, dice que muchas aplicaciones y efectos secundarios de la IA necesitan una regulación urgente.

Por qué la IA no puede resolver problemas desconocidos

https://bdtechtalks.com/2021/03/29/ai-algorithms-representations-herbert-roitblat/

¿Cuándo tendremos inteligencia artificial general, el tipo de IA que puede imitar la mente humana en todos los aspectos? Los expertos están divididos sobre el tema y las respuestas oscilan entre unas pocas décadas y nunca.

Pero en lo que todos están de acuerdo es en que los sistemas de IA actuales están muy lejos de la inteligencia humana. Los seres humanos pueden explorar el mundo, descubrir problemas sin resolver y pensar en sus soluciones. Mientras tanto, la caja de herramientas de IA continúa creciendo con algoritmos que pueden realizar tareas específicas pero no pueden generalizar sus capacidades más allá de sus dominios estrechos. Tenemos programas que pueden vencer a los campeones del mundo en StarCraft, pero no pueden jugar un juego ligeramente diferente a nivel amateur. Tenemos redes neuronales artificiales que pueden encontrar signos de cáncer de mama en las mamografías, pero no pueden diferenciar entre un gato y un perro. Y tenemos modelos de lenguaje complejos que pueden hacer girar miles de artículos aparentemente coherentes por hora, pero comienzan a romperse cuando les haces preguntas simples y lógicas sobre el mundo.

En resumen, cada una de nuestras técnicas de IA logra replicar algunos aspectos de lo que sabemos sobre la inteligencia humana. Pero ponerlo todo junto y llenar los vacíos sigue siendo un gran desafío. En su libro Algorithms Are Not Enough, el científico de datos Herbert Roitblat ofrece una revisión en profundidad de las diferentes ramas de la IA y describe por qué cada una de ellas no alcanza el sueño de crear inteligencia general.

La deficiencia común en todos los algoritmos de IA es la necesidad de representaciones predefinidas, analiza Roitblat. Una vez que descubrimos un problema y podemos representarlo de una manera computable, podemos crear algoritmos de IA que puedan resolverlo, a menudo de manera más eficiente que nosotros mismos. Sin embargo, son los problemas no descubiertos e irrepresentables los que continúan eludiéndonos.

Representaciones en IA simbólica

los algoritmos no son suficientes

«Los algoritmos no son suficientes» por Herbert Roitblat

A lo largo de la historia de la inteligencia artificial, los científicos han inventado regularmente nuevas formas de aprovechar los avances en las computadoras para resolver problemas de manera ingeniosa. Las primeras décadas de IA se centraron en sistemas simbólicos.

Esta rama de la IA asume que el pensamiento humano se basa en la manipulación de símbolos y que cualquier sistema que pueda calcular símbolos es inteligente. La IA simbólica requiere que los desarrolladores humanos especifiquen meticulosamente las reglas, los hechos y las estructuras que definen el comportamiento de un programa de computadora. Los sistemas simbólicos pueden realizar hazañas notables, como memorizar información, calcular fórmulas matemáticas complejas a velocidades ultrarrápidas y emular la toma de decisiones de expertos. Los lenguajes de programación populares y la mayoría de las aplicaciones que usamos a diario tienen sus raíces en el trabajo que se ha realizado sobre la IA simbólica.

Pero la IA simbólica solo puede resolver problemas para los que podemos proporcionar soluciones paso a paso bien formadas. El problema es que la mayoría de las tareas que realizan los seres humanos y los animales no se pueden representar en reglas claras.

“Las tareas intelectuales, como el ajedrez, el análisis de la estructura química y el cálculo, son relativamente fáciles de realizar con una computadora. Mucho más difíciles son los tipos de actividades que podría realizar incluso un ser humano de un año o una rata ”, escribe Roitblat en Algorithms Are Not Enough.

Esto se llama «La paradoja de Moravec», que lleva el nombre del científico Hans Morav.

Aristóteles y el chatbot: cómo las antiguas reglas de la lógica podrían hacer que la inteligencia artificial sea más humana

 Desde el siglo XX, el campo de la lógica se ha alejado del enfoque de Aristóteles hacia sistemas que utilizan la lógica de predicados y proposicionales. Este tipo de lógica ha sido desarrollado por matemáticos para aplicaciones matemáticas; de ahí que se denominen lógicas matemáticas. Se requiere que su razonamiento sea infalible.

El razonamiento humano, por otro lado, no siempre es infalible. Razonamos principalmente a través de la deducción, la inducción y la abducción.

Puede pensar en la deducción como el uso de reglas generalizadas para razonar sobre un ejemplo específico, mientras que la inducción y la abducción implican mirar una colección de ejemplos y tratar de elaborar las reglas que los explican.

Si bien la deducción tiende a ser más precisa, la inducción y la abducción son menos confiables. Estos son procesos complejos que no se programan fácilmente en máquinas.

Podría decirse que la inducción y la abducción son lo que separa la inteligencia humana, que es vasta y general, pero a menudo inexacta, de la inteligencia estrecha pero cada vez más precisa de las máquinas.

Hemos descubierto que el uso de la lógica matemática hace que nuestros chatbots sean menos capaces de tener interacciones significativas con los humanos.

Por ejemplo, una única expresión humana a menudo tiene poco sentido sin un contexto amplio de lo que los lingüistas llaman implicaciones, presuposiciones e implicaturas.

https://theconversation.com/aristotle-and-the-chatbot-how-ancient-rules-of-logic-could-make-artificial-intelligence-more-human-142811

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.