¿Qué es la IA híbrida?

A medida que la comunidad investigadora avanza en la inteligencia artificial y el aprendizaje profundo, los científicos sienten cada vez más la necesidad de avanzar hacia la inteligencia artificial híbrida. La IA híbrida tiene la reputación de resolver los problemas fundamentales a los que se enfrenta el aprendizaje profundo en la actualidad. 

La IA híbrida reúne los mejores aspectos de las redes neuronales y la IA simbólica. La combinación de enormes conjuntos de datos (visuales y de audio, textuales, correos electrónicos, registros de chat, etc.) permite a las redes neuronales extraer patrones. A continuación, los sistemas de IA basados en reglas pueden manipular la información obtenida mediante algoritmos de manipulación de símbolos.

INSCRÍBASE EN NUESTRO PRÓXIMO TALLER DE ML

Los investigadores están trabajando en el desarrollo de sistemas de IA híbridos que puedan averiguar relaciones abstractas sencillas entre los objetos y la razón que hay detrás de ellos con la misma facilidad que un cerebro humano. 

¿Qué es la IA simbólica?

Durante las décadas de 1960 y 1970, los nuevos avances tecnológicos se encontraron con el creciente deseo de los investigadores de comprender cómo interactúan las máquinas y la naturaleza. Los investigadores creían que el uso de enfoques simbólicos produciría inevitablemente una máquina artificialmente inteligente, lo que se consideraba el objetivo a largo plazo de su disciplina.

La «inteligencia artificial a la antigua» o «GOFAI» fue acuñada por John Haugeland en su libro de 1985 ‘Artificial Intelligence: The Very Idea» que exploraba las implicaciones éticas y filosóficas de la inteligencia artificial. Desde los primeros esfuerzos por construir ordenadores pensantes en la década de 1950, la investigación y el desarrollo en el campo de la IA han seguido dos enfoques paralelos: la IA simbólica y la IA conexionista. 

La IA simbólica (también conocida como IA clásica) es un área de investigación de la inteligencia artificial que se centra en el intento de expresar claramente el conocimiento humano en forma declarativa, es decir, hechos y reglas. Desde mediados de los años 50 hasta finales de los 80, se hizo un uso importante de la inteligencia artificial simbólica. En cambio, en los últimos años, ha pasado a primer plano un enfoque conexionista como el aprendizaje automático con redes neuronales profundas.

Combinación de IA simbólica y redes neuronales 

En los últimos años se ha producido un abandono del enfoque simbólico debido a sus límites técnicos. 

Según David Cox, director de IBM en el laboratorio de IA MIT-IBM Watson, el aprendizaje profundo y las redes neuronales destacan por el «desorden del mundo», pero la IA simbólica no. Las redes neuronales estudian y comparan meticulosamente un gran número de instancias anotadas para descubrir relaciones significativas y crear los correspondientes modelos matemáticos. 

Varias empresas de TI y laboratorios académicos destacados han realizado un esfuerzo importante en el uso del aprendizaje profundo. Las redes neuronales y el aprendizaje profundo destacan en tareas en las que la IA simbólica falla. Como resultado, se está utilizando para abordar desafíos complejos hoy en día. Por ejemplo, el aprendizaje profundo ha hecho importantes contribuciones a la revolución de la visión por ordenador con casos de uso en el reconocimiento facial y la detección de la tuberculosis. Las actividades relacionadas con el lenguaje también se han beneficiado de los avances del aprendizaje profundo.

VER TAMBIÉN

RINCÓN DEL DESARROLLADOR

7 recursos para aprender deep learning en 2021

Sin embargo, el aprendizaje profundo y las redes neuronales tienen ciertos límites. Uno de ellos es que la disponibilidad de grandes volúmenes de datos depende de ello. Además, las redes neuronales también son vulnerables a instancias hostiles, a menudo conocidas como datos adversos, que pueden manipular el comportamiento de un modelo de IA de forma impredecible y perjudicial.

Sin embargo, cuando se combinan entre sí, la IA simbólica y las redes neuronales pueden constituir una buena base para desarrollar sistemas de IA híbridos.

El futuro de la IA híbrida 

El modelo de IA híbrida utiliza la capacidad de las redes neuronales para procesar y evaluar datos no estructurados, al tiempo que utiliza técnicas de IA simbólica. Los puntos de vista conectivistas sostienen que las técnicas basadas en redes neuronales acabarán proporcionando una IA sofisticada y ampliamente aplicable. En 2019, la Conferencia Internacional sobre Representaciones de Aprendizaje (ICLR) presentó un artículo en el que los investigadores combinaron redes neuronales con inteligencia artificial basada en reglas para crear un modelo de IA. Este enfoque se ha denominado «Neuro-Symbolic Concept Learner» (NCSL); afirma superar las dificultades a las que se enfrenta la IA y ser superior a la suma de sus partes. El NCSL, un sistema híbrido de IA desarrollado por investigadores del MIT e IBM, aborda los problemas de respuesta a preguntas visuales (VQA); el NSCL utiliza redes neuronales en combinación con redes neuronales con una precisión notable. Los investigadores demostraron que el NSCL era capaz de manejar el conjunto de datos VQA CLEVR. Y lo que es más importante, el modelo de IA híbrido pudo conseguir logros extraordinarios con menos datos de entrenamiento y superar dos retos de aprendizaje profundo que se planteaban desde hace tiempo.

Incluso el motor de búsqueda de Google es un complejo sistema de IA todo en uno compuesto por herramientas de aprendizaje profundo de vanguardia como Transformers y herramientas avanzadas de manipulación de símbolos como el gráfico de conocimiento.

Traducción realizada con la versión gratuita del traductor http://www.DeepL.com/Translator

La inteligencia artificial es una casa dividida

El sol brilla en la informática en este momento, especialmente en el subcampo de la inteligencia artificial. No pasa un día sin que la prensa aclame sin aliento algún nuevo milagro de las máquinas inteligentes. Los líderes del campo están galardonados con honores y parecen disfrutar de un estatus que pocos académicos han alcanzado. Cantidades deslumbrantes de dinero se vierten en la IA, y se están forjando nuevos imperios tecnológicos ante nuestros ojos. En 2014, DeepMind, una empresa del Reino Unido aparentemente sin productos, sin clientes, sin tecnología obvia y con solo 50 empleados, fue adquirida por Google por la suma reportada de $ 600 millones; hoy, DeepMind emplea a más de 1,000 personas.
Dado todo esto, junto con los tiempos difíciles financieros que han afectado a tantos otros campos, la IA, desde el exterior, debe parecer un barco feliz. De hecho, es difícil imaginar cómo las cosas podrían ser más optimistas. Pero mire un poco más de cerca y verá que no todo está bien en el campo. AI es una iglesia amplia y, como muchas iglesias, tiene cismas.
El tema ferozmente controvertido que ha dividido el campo es quizás la pregunta más básica en IA: para lograr máquinas inteligentes, ¿debemos modelar la mente o el cerebro? El primer enfoque se conoce como IA simbólica y dominó en gran medida el campo durante gran parte de sus más de 50 años de existencia. El último enfoque se llama redes neuronales. Durante gran parte de la existencia del campo, las redes neuronales se consideraron un primo pobre de la IA simbólica en el mejor de los casos y un callejón sin salida en el peor. Pero los triunfos actuales de la IA se basan en avances dramáticos en la tecnología de redes neuronales, y ahora es la IA simbólica la que está en su contra. Algunos investigadores de redes neuronales proclaman vocalmente que la IA simbólica es un campo muerto, y la comunidad de IA simbólica está buscando desesperadamente encontrar un papel para sus ideas en la nueva IA.

https://www.chronicle.com/article/artificial-intelligence-is-a-house-divided

El resurgir de las redes neuronales estructuradas

El aprendizaje automático con redes neuronales profundas («aprendizaje profundo») permite aprender características complejas directamente de los datos de entrada sin procesar, eliminando por completo la extracción de características «codificadas» hechas a mano. Esto ha llevado a lograr un rendimiento de vanguardia en varios dominios problemáticos — previamente desconectados —, incluyendo la visión por computadora, el procesamiento del lenguaje natural, el aprendizaje de refuerzo y el modelado generativo. Estas historias de éxito casi de manera universal van de la mano con la disponibilidad de inmensas cantidades de ejemplos de capacitación etiquetados («big data») que exhiben una estructura simple tipo cuadrícula (por ejemplo, texto o imágenes), explotables a través de capas convolucionales o recurrentes. Esto se debe a la gran cantidad de grados de libertad en las redes neuronales, lo que deja su capacidad de generalización vulnerable a efectos como el sobreajuste. Sin embargo, quedan muchos dominios en los que la recopilación de datos no siempre es apropiada, asequible o incluso factible. Además, los datos generalmente se organizan en tipos de estructura más complicados, que la mayoría de los enfoques existentes simplemente descartarían. Ejemplos de tales tareas son abundantes en el espacio biomédico; con p. un pequeño número de sujetos disponibles para cualquier estudio clínico o relaciones entre proteínas especificadas a través de redes de interacción. Supongo que, si el aprendizaje profundo debe alcanzar su máximo potencial en tales entornos, debemos reconsiderar los enfoques «codificados», integrando supuestos sobre la estructura inherente en los datos de entrada directamente en nuestras arquitecturas y algoritmos de aprendizaje, a través de inductivos estructurales sesgos En esta disertación, valido directamente esta hipótesis mediante el desarrollo de tres arquitecturas de redes neuronales infundidas en la estructura (que operan en datos dispersos multimodales y estructurados con gráficos), y un algoritmo de aprendizaje estructurado para redes neuronales de gráficos, que demuestra un rendimiento superior significativo de los modelos de línea de base convencionales y algoritmos.

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

IA Híbrida

Un nueva dataset, CLEVRER, sirve para mostrar calidad del razonamiento de la IA. Al probar un sistema híbrido de deep learning e IA simbólica parece tener un buen futuro.

https://www.technologyreview.com/f/615326/ai-neuro-symbolic-system-reasons-like-child-deepmind-ibm-mit/

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Inteligencia Artificial Híbrida

El camino de la IA hacia la AGI está resultando difícil. Yoshua Bengio defendió en NeurIPS la capsule networks, mientras Gary Marcus propone la IA híbrida.

Los Conexionistas defienden las redes neuronales puras, mientras Marcus defiende una solución que combine ese enfoque con la IA simbólica. Para Marcus el problema de la IA es la incapacidad de generalización de transferir el contenido de un contexto a otro. Los modelos actuales crecen en velocidad, complejidad y tamaño, lo que supone un coste cresiente insostenible.

https://bdtechtalks.com/2020/03/04/gary-marcus-hybrid-ai/

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Próxima década en IA: Cuatro pasos hacia una IA robusta

El artículo considera la historia de la IA y cual podría ser en el futuro una IA más robusta aunque no sea superinteligencia. La idea es que la IA sea más fiable, si no, no se podrá confiar en ella.

La narrow AI es ampliamente conocida por resolver problemas concretos excepcionalmente bien, como jugar  al ajedrez, pero no es transferible a otros problemas, ni siquiera a otras circunstacias sin un nuevo entrenamiento. Funcionan bien en entornos controlados, pero no en el mundo fluído y variable.

Una IA robusta es lo contrario a una que funciona bien en muchos casos pero también falla en otros muy similares.

Desde el principio la robustez no ha sido el objetivo. Solo se ha demostrado hambrienta de datos y con escasa capacidad de generalizar.

Gary Marcus y Ernie Davis denominan comprensión profunda (deep understanding) a la capacidad no solo de correlar y discernir patrones sutiles, sino también la capacidad de ante cualquier escenario poder preguntar ónde, cuándo, quién, por qué, cómo.

GPT-2 es un ejemplo de generación de textos pero falla estrepitosamente con facilidad.

Los negocios se han centrado en mejorar las herramientas, obtener mayores datasets, disponer de más GPUs y TPUs, pero aún con su valor, hace es más necesario repensarlo. Bengio sugiere técnicas más sofisticadas como extración causal de relaciones causales a partir de la sensibilidad a los cambios de distribución.

Marcus cree que debemos reenfocarnos a un marco que sea capaz de rutinariamente adquirir, representar y manipular conocimiento abstracto.

Para ellos propone volver a tres intereses clásicos de la IA: conocimiento, modelos internos y razonamiento. Esos intereses eran centrales para John McCarthy. Con el tiempo esas ideas ha ido desapareciendo de las publicaciones. Sistemas como GPT-2 son capaces de hacer lo que hacen sin ninguna clase de razonamiento.

Muchos ven esa ausencia de laborioso conocimiento explícito como una ventaja. Todo esto ha impulsado los desarrollos de DeepMind. Incluir el conocimiento humano en el aprendizaje automático se ha visto como una trampa y algo no deseado. El objetivo de DeepMind sería llegar a aprender desde cero hasta llegar a la superinteligencia. Sería deseable poder inyectar el sentido común y el sentimiento a partir de conocimientos previos.

En general los ejemplos utilizados son ámbitos cerrados, no problemas reales.

Enfoque híbrido, dirigido al conocimiento y basado en un modelo cognitivo

Muchos científicos cognitivos ven la cognición como un ciclo: los organismos toman de entrada información exterior, construyen modelos cognitivos internos basados en su percepción de esa información y toman decisiones respecto a esos modelos cognitivos. Es un enfoque valioso.

Los modelos desarrollados para lingüística, juegos de ordenador, etc, no sirven para una inteligencia robusta. Las redes neuronales no son capaces ni de resolver problemas sencillos como los que presenta. Añadir más capas ocultas no cambia las cosas. Hay dos problemas relacionados:
1. la idiosincrasia, los sistemas entrenados son difícilmente generalizables a entornos abiertas.
2. excesiva dependencia del proceso de entrenamiento
Las operaciones simbólicas ofrecen la única solución conocida, pero es una solución parcial.

Los híbridos son a menudo efectivos
Se presentan varias objecciones a los sistemas simbólicos:
1. Los símbolos no son biológicamente plausibles
2. Los sistemas simbólicos no han funcionado en el pasado
3. No son escalables

No es omprescindible  abandonar el enfoque actual basado en reglas, entrenamiento, etc, pero hay urge cambiar de perspectiva.

Propone un programa en cuatro pasos:
1. desarrollo inicial de arquitecturas híbridas neuro simbólicas
2. construcción de frameworks cognitivos parcialmente innatos y bases de conocimientos a gran escala
3. mayor desarrollo de herramientas para razonamiento sobre esos frameworks
4. mecanismos más sofisticados para la representación e inducción de modelos cognitivos

https://arxiv.org/abs/2002.06177

por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Crea tu sitio web con WordPress.com
Comenzar