Modelo GLOM

https://www.vectoritcgroup.com/en/tech-magazine-en/artificial-intelligence-en/the-future-of-neural-networks-is-hintons-new-glom-model

El aprendizaje profundo fue uno de los grandes avances en el campo de la inteligencia artificial. Generalmente, existe la creencia de que el aprendizaje profundo puede ser todo lo que se necesita para replicar la inteligencia humana. Sin embargo, la realidad es que persisten los desafíos, ya que exponer una red neuronal a un conjunto de datos desconocido lo revelará de manera frágil.

Por ejemplo, en el caso de los automóviles autónomos, aparentemente son efectivos, pero los sistemas de inteligencia artificial pueden equivocarse fácilmente. Si el sistema solo ha sido entrenado para identificar objetos desde perspectivas laterales, es poco probable que los reconozca desde una perspectiva superior.

Aprovechando el impacto y la gran inversión que implica el desarrollo de la IA en la actualidad, cada día surgen nuevas propuestas para desarrollar Deep Learning, Machine Learning, nuevos algoritmos, etc.

Recientemente, Geoffrey Hinton presentó GLOM, un proyecto que aborda dos de los problemas más difíciles para los sistemas de percepción visual. En primer lugar, comprender una escena completa en relación con los objetos y sus partes naturales y, en segundo lugar, reconocer los objetos cuando se ven desde una nueva perspectiva. Aunque el enfoque GLOM se centra actualmente en la visión, se espera que se desarrolle para aplicaciones de lenguaje.

El problema con las redes es que agrupar partes puede resultar complicado para las computadoras, ya que algunas veces las partes pueden ser ambiguas. Es decir, un círculo puede representar un ojo o una rueda. Inicialmente, la primera generación de IA trató de reconocer objetos a partir de la geometría en la denominada relación parte-todo, que consiste en la orientación espacial entre partes y entre partes y el todo.

Paralelamente, la segunda generación se basó en el aprendizaje profundo, entrenando la red neuronal con grandes volúmenes de datos e información. La idea de GLOM combina las mejores propiedades de ambas generaciones.

En consecuencia, GLOM presenta buenas perspectivas para lograr la percepción de la IA en un método más similar al humano que las redes neuronales actuales.

Así, si su apuesta tiene éxito, Hinton desencadenará una nueva revolución en inteligencia artificial como lo ha hecho en anteriores

¿Harto de modelos gigantes de IA? La «IA lenta» es una mejor forma

https://morungos.com/2021/05/08/slow-ai/

A menudo pensamos en la IA como una tecnología rápida y disruptiva, una que está remodelando el mundo en el que vivimos al cambiar nuestros estándares y valores económicos. Por ejemplo, tal vez la IA pueda hacer parte de un trabajo más rápido y con mayor precisión que las personas; esa oportunidad de automatización puede transformar los salarios, las carreras y causar el éxito o el fracaso de empresas enteras.

Durante la semana pasada, he estado reconsiderando eso, gracias a un pensamiento inspirado de Mireille Hildebrandt que menciona la idea de «IA lenta».

La idea de una IA como parte del «movimiento lento» tiene un atractivo intuitivo. Incluso hay un campo pequeño pero distintivo de «tecnología lenta»: ¿podríamos establecer una forma de hacer IA que refleje eso?

La tecnología lenta es lo opuesto a la orientada a soluciones. Se trata de la experiencia, no del objetivo. Es envolvente, no desarrollo, en gran medida el tipo de comprensión e integración que sugiere Madeleine Clare Elish. La tecnología lenta no es disruptiva, sino que se trata de diseñar para mejorar y deliberar sobre nuestras experiencias.

Como psicólogo, también he estado pensando en la IA lenta a través de otra lente. Kahneman, en «Thinking Fast and Slow», habla de las personas como dos sistemas: el sistema 1 y el sistema 2. El sistema 1 es el lado instintivo y reflexivo de nuestro pensamiento, donde el sistema 2 es el lado reflexivo y deliberativo.

El problema es que, al enfrentarse a eventos del mundo real, el Sistema 1 es más rápido y, a menudo, gana. Por ejemplo, cuando estamos tratando de decidir si algo es cierto o no, el Sistema 1 a menudo llega a la conclusión de que es cierto, y solo cuando (y si) el Sistema 2 se involucra, podemos reconsiderarlo y llegar a una evaluación más precisa. . Aplique esto a los sistemas de recomendación, por ejemplo, oa la IA en el reclutamiento: cuánto del daño de la IA proviene del Sistema 1 que lidera el Sistema 2.

Si, y esto me parece probable, esta es la causa subyacente del aspecto de «avaro cognitivo» del sesgo de automatización, entonces debemos comenzar a diseñar IA para fortalecer el Sistema 2, para alentar la reflexión. La IA lenta puede ser la única forma de superar el sesgo de automatización, así como la miríada de otras consecuencias de los sistemas de IA deficientes.

Por qué necesitamos nuevos puntos de referencia para la IA

https://www.wsj.com/articles/why-we-need-new-benchmarks-for-ai-11617634800

¿Cómo se mide la inteligencia artificial?

Desde que la idea se afianzó por primera vez en la década de 1950, los investigadores han medido el progreso de la IA mediante el establecimiento de puntos de referencia, como la capacidad de reconocer imágenes, crear oraciones y jugar juegos como el ajedrez. Estos puntos de referencia han demostrado ser una forma útil de determinar si la IA es más capaz de hacer más cosas y de impulsar a los investigadores a crear herramientas de IA que sean aún más útiles.

En los últimos años, los sistemas de IA han superado muchas de las pruebas propuestas por los investigadores, superando a los humanos en muchas tareas. Para los investigadores, la misión ahora es crear puntos de referencia que puedan capturar los tipos más amplios de inteligencia que podrían hacer que la IA sea realmente útil; puntos de referencia, por ejemplo, que pueden reflejar habilidades esquivas como el razonamiento, la creatividad y la capacidad de aprender. Por no hablar de áreas como la inteligencia emocional que son bastante difíciles de medir en humanos.

Un sistema de inteligencia artificial, por ejemplo, puede funcionar lo suficientemente bien como para que los humanos no siempre puedan saber si, digamos, una imagen o un párrafo fue creado por un humano o una máquina. O pregúntele a un sistema de inteligencia artificial que ganó el Oscar a la mejor actriz el año pasado y no tendría ningún problema. Pero pregunte por qué ganó la actriz y la IA se quedará perpleja. Le faltaría el razonamiento, la contextualización, la comprensión emocional que se necesita para responder adecuadamente.

«Hemos hecho la parte fácil», dice Jack Clark, copresidente del AI Index, un informe de la Universidad de Stanford que rastrea el desarrollo de la IA. «La gran pregunta es, ¿cómo serán los puntos de referencia realmente ambiciosos en el futuro y qué miden?»

Después de todo, dice, «Hay una gran diferencia entre decirme la respuesta correcta y decirme la respuesta correcta con una muy buena explicación».

La prueba de Turing

Una mirada retrospectiva a los puntos de referencia ofrece una ilustración vívida de lo lejos que ha llegado la IA y los desafíos que aún enfrenta.

El primer punto de referencia vino del científico informático inglés Alan Turing. En 1950, el Sr. Turing escribió: «Propongo considerar la pregunta: ‘¿Pueden pensar las máquinas?'» Para determinar eso, describió un experimento, más tarde denominado Prueba de Turing, en el que un juez humano considera una conversación entre una persona y una máquina diseñada para generar respuestas similares a las humanas. Si el juez no puede identificar correctamente qué conversador es el humano, la máquina pasa lo que el Sr. Turing llamó el Juego de Imitación.

Tratar de aprobar la prueba de Turing era el objetivo de los primeros esfuerzos de inteligencia artificial (aunque, según Michael Wooldridge, jefe del departamento de informática de la Universidad de Oxford, el propio Turing lo consideraba en gran parte un experimento mental).

No fue hasta la década de 1990 cuando los investigadores comenzaron a cambiar los puntos de referencia de igualar la inteligencia humana a superarla en tareas específicas, según el profesor Wooldridge. “Si quiere que un programa haga algo por usted, no hay razón para que sea humano”, dice. «Lo que quieres que haga es tomar la mejor decisión posible».

Se hicieron algunos avances, incluido un programa informático de IBM que venció al campeón de ajedrez Garry Kasparov en 1997, un punto de referencia que se consideró un salto adelante en el desarrollo de la inteligencia artificial.

La primavera de la IA

Pero los avances realmente se recuperaron en la reciente «primavera de la IA», que muchos fecharían como a partir de 2012. Ese fue el año del Desafío ImageNet: una prueba para ver si un algoritmo podía detectar e identificar correctamente lo que se mostraba en las fotos contenidas en una base de datos de 14 millones de imágenes: vio un gran avance. AlexNet, un tipo de algoritmo de inteligencia artificial llamado red neuronal, obtuvo una tasa de error del 15,3%, una puntuación 10,8 puntos porcentuales más baja que el mejor intento anterior. Después de que la mayoría de los competidores tuvieran tasas de error inferiores al 5% en 2017, los investigadores detrás del concurso dijeron que trabajarían en una versión nueva y más desafiante.

En los últimos dos años, los sistemas que pueden comprender el lenguaje natural, así como los que pueden descifrar con precisión imágenes y videos digitales, han superado una sucesión de puntos de referencia. Por ejemplo, en 2018, se lanzó un punto de referencia llamado GLUE, que requiere que los sistemas de inteligencia artificial pasen pruebas como reconocer si las oraciones se parafrasean entre sí y determinar si una crítica de películas es positiva, negativa o neutral. Muchas de estas tareas fueron superadas tan rápidamente que los investigadores lo elevaron a SuperGLUE a fines de 2019. Para enero de este año, los investigadores que trabajaban para crear sistemas para superar el punto de referencia SuperGLUE ya habían superado lo que la mayoría de los humanos son capaces de hacer.

Estas líneas de tiempo cada vez más rápidas para superar los puntos de referencia hacen que los investigadores pidan estructurar los puntos de referencia de una manera que pueda mantenerse al día con el ritmo de la innovación en IA.

La inteligencia artificial es una casa dividida

El sol brilla en la informática en este momento, especialmente en el subcampo de la inteligencia artificial. No pasa un día sin que la prensa aclame sin aliento algún nuevo milagro de las máquinas inteligentes. Los líderes del campo están galardonados con honores y parecen disfrutar de un estatus que pocos académicos han alcanzado. Cantidades deslumbrantes de dinero se vierten en la IA, y se están forjando nuevos imperios tecnológicos ante nuestros ojos. En 2014, DeepMind, una empresa del Reino Unido aparentemente sin productos, sin clientes, sin tecnología obvia y con solo 50 empleados, fue adquirida por Google por la suma reportada de $ 600 millones; hoy, DeepMind emplea a más de 1,000 personas.
Dado todo esto, junto con los tiempos difíciles financieros que han afectado a tantos otros campos, la IA, desde el exterior, debe parecer un barco feliz. De hecho, es difícil imaginar cómo las cosas podrían ser más optimistas. Pero mire un poco más de cerca y verá que no todo está bien en el campo. AI es una iglesia amplia y, como muchas iglesias, tiene cismas.
El tema ferozmente controvertido que ha dividido el campo es quizás la pregunta más básica en IA: para lograr máquinas inteligentes, ¿debemos modelar la mente o el cerebro? El primer enfoque se conoce como IA simbólica y dominó en gran medida el campo durante gran parte de sus más de 50 años de existencia. El último enfoque se llama redes neuronales. Durante gran parte de la existencia del campo, las redes neuronales se consideraron un primo pobre de la IA simbólica en el mejor de los casos y un callejón sin salida en el peor. Pero los triunfos actuales de la IA se basan en avances dramáticos en la tecnología de redes neuronales, y ahora es la IA simbólica la que está en su contra. Algunos investigadores de redes neuronales proclaman vocalmente que la IA simbólica es un campo muerto, y la comunidad de IA simbólica está buscando desesperadamente encontrar un papel para sus ideas en la nueva IA.

https://www.chronicle.com/article/artificial-intelligence-is-a-house-divided

Cada modelo aprendido por pendiente de gradiente es aproximadamente una máquina de kernel

 Los éxitos del aprendizaje profundo a menudo se atribuyen a su capacidad para descubrir automáticamente nuevas representaciones de los datos, en lugar de depender de características hechas a mano como otros métodos de aprendizaje. Sin embargo, mostramos que las redes profundas aprendidas por el algoritmo de descenso de gradiente estándar son de hecho matemáticamente aproximadamente equivalentes a las máquinas kernel, un método de aprendizaje que simplemente memoriza los datos y los usa directamente para la predicción a través de una función de similitud (el kernel). Esto mejora enormemente la interpretabilidad de las ponderaciones de redes profundas, al aclarar que son efectivamente una superposición de los ejemplos de entrenamiento. La arquitectura de la red incorpora el conocimiento de la función de destino en el kernel. Esta mejor comprensión debería conducir a mejores algoritmos de aprendizaje.

https://arxiv.org/abs/2012.00152

Los principales científicos informáticos debaten los próximos pasos para la IA en 2021

 La década de 2010 fue enorme para la inteligencia artificial, gracias a los avances en el aprendizaje profundo, una rama de la IA que se ha vuelto factible debido a la creciente capacidad de recopilar, almacenar y procesar grandes cantidades de datos. Hoy en día, el aprendizaje profundo no es solo un tema de investigación científica, sino también un componente clave de muchas aplicaciones cotidianas.

Pero una década de investigación y aplicación ha dejado en claro que, en su estado actual, el aprendizaje profundo no es la solución final para resolver el siempre difícil desafío de crear IA a nivel humano.

https://venturebeat.com/2021/01/02/leading-computer-scientists-debate-the-next-steps-for-ai-in-2021/

Aprendizaje de atajos en redes neuronales profundas

 El aprendizaje profundo ha desencadenado el aumento actual de la inteligencia artificial y es el caballo de batalla de la inteligencia artificial actual. Numerosas historias de éxito se han extendido rápidamente por toda la ciencia, la industria y la sociedad, pero sus limitaciones solo se han puesto de manifiesto recientemente. En esta perspectiva, buscamos destilar cuántos de los problemas del aprendizaje profundo pueden verse como diferentes síntomas del mismo problema subyacente: el aprendizaje por atajos. Los atajos son reglas de decisión que funcionan bien en puntos de referencia estándar, pero no se transfieren a condiciones de prueba más desafiantes, como escenarios del mundo real. Se conocen temas relacionados en Psicología Comparada, Educación y Lingüística, lo que sugiere que el aprendizaje de atajos puede ser una característica común de los sistemas de aprendizaje, tanto biológicos como artificiales. Basándonos en estas observaciones, desarrollamos un conjunto de recomendaciones para la interpretación de modelos y la evaluación comparativa, destacando los avances recientes en el aprendizaje automático para mejorar la solidez y la transferibilidad del laboratorio a las aplicaciones del mundo real.

https://arxiv.org/pdf/2004.07780.pdf

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Un nuevo modelo que puede "abstraer" acciones ordinarias

 Utilizando deep learning y lógica simbólica, investigadores han podido detectar acciones extrayendo formas y comparándoas con una base de datos de acciones.

Los resultados son interesantes, aunque tiende a subrayar cosas que no son importantes.

https://news.mit.edu/2020/toward-machine-learning-that-can-reason-about-everyday-actions-0831

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

¿Este título lo escribió una persona o una máquina?

GPT-3, creado por el laboratorio de investigación OpenAI, está provocando escalofríos en Silicon Valley. La compañía lanzó el servicio en versión beta el mes pasado y ha ampliado gradualmente el acceso. La semana pasada, el servicio se volvió viral entre los empresarios e inversores, que con entusiasmo se dirigieron a Twitter para compartir y discutir los resultados de la producción de GPT-3 para generar memes, poemas, tweets y tablaturas de guitarra.
El momento viral del software es un experimento de lo que sucede cuando la nueva investigación de inteligencia artificial se empaqueta y se pone en manos de personas con conocimientos de tecnología pero no expertos en inteligencia artificial. El sistema de OpenAI ha sido probado y agotado en formas que no esperaba. Los resultados muestran la utilidad potencial de la tecnología, pero también sus limitaciones, y cómo puede llevar a las personas por mal camino.
«No tiene ningún modelo interno del mundo, ni ningún otro mundo, por lo que no puede hacer un razonamiento que requiera dicho modelo», afirma Melanie Mitchell, profesora en Santa Fe Institute
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.
Crea tu sitio web con WordPress.com
Comenzar