Consecuencialismo y ética de las máquinas: hacia una ética de las máquinas fundamental para garantizar la conducta ética de los agentes morales artificiales

Este artículo sostiene que el consecuencialismo representa un tipo de teoría ética que es la más plausible para servir de base a una ética de las máquinas. Comienza esbozando el concepto de agente moral artificial y las propiedades esenciales del consecuencialismo. A continuación, se presenta un escenario con vehículos autónomos para ilustrar cómo las características del consecuencialismo informan la acción del agente. En tercer lugar, se evalúa un enfoque deontológico alternativo y se discute el problema del conflicto moral. Por último, se presentarán dos enfoques ascendentes para el desarrollo de la ética de las máquinas y se cuestionarán brevemente.

Un premio Nobel contra la falacia que une correlación y causalidad

https://elpais.com/politica/2021/10/14/actualidad/1634222568_419481.html

Los economistas David Card, Joshua Angrist y Guido Imbens han obtenido el galardón por hacer más científica la economía, inventando trucos para atacar su pregunta más difícil: qué causa qué

Abstracción y creación de analogías en artificial Inteligencia

https://arxiv.org/abs/2102.10717

La abstracción conceptual y la creación de analogías son habilidades clave que subyacen a las capacidades de los seres humanos para aprender, razonar y adaptar de manera sólida su conocimiento a nuevos dominios. A pesar de una larga historia de investigación sobre la construcción de sistemas de IA con estas habilidades, ningún sistema de IA actual se acerca a la capacidad de formar abstracciones o analogías humanas. Este artículo revisa las ventajas y limitaciones de varios enfoques hacia este objetivo, incluidos los métodos simbólicos, el aprendizaje profundo y la inducción probabilística de programas. El artículo concluye con varias propuestas para diseñar tareas de desafío y medidas de evaluación con el fin de lograr avances cuantificables y generalizables en esta área.

Aprendizaje automático interpretable: breve historia, estado de la técnica y desafíos

 Presentamos una breve historia del campo del aprendizaje automático interpretable (IML), brindamos una descripción general de los métodos de interpretación de vanguardia y discutimos los desafíos. La investigación en IML se ha disparado en los últimos años. Tan joven como es el campo, tiene más de 200 años de raíces en el modelado de regresión y el aprendizaje automático basado en reglas, a partir de la década de 1960. Recientemente, se han propuesto muchos métodos nuevos de IML, muchos de ellos independientes del modelo, pero también técnicas de interpretación específicas para el aprendizaje profundo y los conjuntos basados ​​en árboles. Los métodos de IML analizan directamente los componentes del modelo, estudian la sensibilidad a las perturbaciones de entrada o analizan aproximaciones sustitutas locales o globales del modelo de ML. El campo se acerca a un estado de preparación y estabilidad, con muchos métodos no solo propuestos en la investigación, sino también implementados en software de código abierto. Pero aún quedan muchos desafíos importantes para el IML, como el manejo de las características dependientes, la interpretación causal y la estimación de la incertidumbre, que deben resolverse para su aplicación exitosa a problemas científicos. Otro desafío es la falta de una definición rigurosa de interpretabilidad, que es aceptada por la comunidad. Para abordar los desafíos y avanzar en el campo, instamos a recordar nuestras raíces del modelado interpretable y basado en datos en estadísticas y ML (basado en reglas), pero también a considerar otras áreas como el análisis de sensibilidad, la inferencia causal y las ciencias sociales. .

https://arxiv.org/abs/2010.09337

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Construyendo máquinas de pensamiento resolviendo tareas de cognición animal

 En «Computing Machinery and Intelligence», Turing, escéptico de la pregunta «¿Pueden pensar las máquinas?», Rápidamente la reemplaza con una prueba verificable experimentalmente: el juego de imitación. Sugiero que para que tal movimiento tenga éxito, la prueba debe ser relevante, expansiva, solucionable con ejemplos, impredecible y conducir a una investigación procesable. El juego de la imitación solo tiene un éxito parcial en este sentido y su dependencia del lenguaje, si bien es útil para resolver parcialmente el problema, ha puesto el progreso de la IA en el pie equivocado, prescribiendo un enfoque de arriba hacia abajo para construir máquinas pensantes. Sostengo que para solucionar las deficiencias de los sistemas modernos de IA se requiere una operacionalización no verbal. Esto lo proporciona el reciente Animal-AI Testbed, que traduce pruebas de cognición animal para IA y proporciona una vía de investigación de abajo hacia arriba para construir máquinas pensantes que creen modelos predictivos de su entorno a partir de información sensorial.

https://www.readcube.com/articles/10.1007/s11023-020-09535-6

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

El esfuerzo de la IA por lograr la "comprensión" y el "significado"

la tecnología de inteligencia artificial más avanzada que tenemos hoy, nuestra mejor imitación del cerebro, puede ver, en el mejor de los casos, personas y rostros, detectar géneros y objetos, y proporcionar descripciones muy básicas, como «una pareja cenando en una mesa».
Esto es solo un vistazo de la capacidad de la mente humana para comprender el mundo, y cuán gran desafío sigue siendo su replicación después de seis décadas de investigación de inteligencia artificial.
«Los humanos son capaces de» comprender realmente «las situaciones que encuentran, mientras que incluso los sistemas de IA más avanzados de la actualidad aún no tienen una comprensión similar a la humana de los conceptos que estamos tratando de enseñarles», escribe el científico de la computación y el investigador de IA. Melanie Mitchell en su último artículo para AI Magazine.
En su artículo, Mitchell, quien también es profesora en el Instituto Santa Fe y autora de un libro reciente sobre inteligencia artificial, analiza las dificultades de los sistemas actuales de inteligencia artificial, es decir, el aprendizaje profundo, para extraer significado de la información que procesan.
El aprendizaje profundo es muy bueno para descubrir correlaciones entre toneladas de puntos de datos, pero cuando se trata de profundizar en los datos y formar abstracciones y conceptos, apenas rascan la superficie (incluso eso podría ser una exageración). Tenemos sistemas de inteligencia artificial que pueden ubicar objetos en imágenes y convertir audio a texto, pero ninguno que pueda empatizar con Aurelie y apreciar su malestar cuando su esposo ataca a Pomponette. De hecho, nuestros sistemas de IA comienzan a romperse tan pronto como se enfrentan a situaciones que son ligeramente diferentes de los datos en los que han sido entrenados.
Algunos científicos creen que tales límites se superarán a medida que escalemos los sistemas de aprendizaje profundo con redes neuronales más grandes y conjuntos de datos más grandes. Pero, sospecha Mitchell, podría faltar algo más fundamental.
Mitchell indica varios puntos
  • la IA no tiene habilidades innanatas
  • las redes neuronales no pueden extrapolar
  • los seres humanos estamos en el mundo e interactuamos con él, la IA no está en el mundo
  • la comprensión no es una función de pérdida o una marca
  • encontrar el significado es un reto multidisciplinar
«Para mí, las perspectivas de personas ajenas a la IA (en psicología, neurociencia, filosofía, etc.) ayudaron a mostrar cómo estos temas de ‘comprensión’ y ‘significado’ son simultáneamente clave para la inteligencia, pero también muy difíciles de estudiar», me dijo Mitchell. . “Escuchar a personas de la psicología y la neurociencia realmente nos llevó a casa lo compleja que es la inteligencia, no solo en humanos sino también en otros animales, desde arañas saltarinas hasta loros grises y nuestros primos primates. Y también que realmente no entendemos muy bien la inteligencia natural «.
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Simposium de Otoño 2020 sobre Abstracción

Organizado por AAAI y Sante Fe Institute, Melanie Mitchell.

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Sobre la caída de la barrera del significado en la IA

Paper de Melanie Mitchell .

En 1986, el matemático y filósofo Gian-Carlo Rota escribió: «Me pregunto llegará  la inteligencia artificial alguna vez a romper la barrera del significado «. (Rota 1986). Aquí el La frase «barrera de significado» se refiere a una creencia sobre los humanos versus las máquinas: los humanos son capaces para «entender realmente» las situaciones que encuentran, mientras que incluso las más avanzadas de Los sistemas de IA de hoy todavía no tienen una comprensión humana de los conceptos que somos tratando de enseñarles Esta falta de comprensión puede ser la base de las limitaciones actuales en el generalidad y fiabilidad de los sistemas modernos de IA. En octubre de 2018, el Instituto Santa Fe celebró un taller de tres días, organizado por Barbara Grosz, Dawn Song y yo, llamado «Artificial Inteligencia y la barrera del significado «. Treinta participantes de un conjunto diverso de disciplinas: IA, robótica, psicología cognitiva y del desarrollo, comportamiento animal, teoría de la información, y filosofía, entre otros, se reunieron para discutir cuestiones relacionadas con la noción de «Comprensión» en sistemas vivos y la perspectiva de tal comprensión en máquinas. En el Espero que los resultados del taller sean útiles para la comunidad en general, este artículo resume los principales temas de discusión y destaca algunas de las ideas desarrolladas en el taller.
Las discusiones en este taller fueron un intento de dar sentido a la comprensión tanto en sistemas vivos como  en máquinas. La comprensión es una cualidad mal definida que parece ser una parte fundamental de la inteligencia general robusta  que vemos en los humanos y otros sistemas de pensamiento. Nuestra concepción limitada de lo que realmente implica la comprensión hace que sea difícil contestar preguntas básicas: ¿Cómo sabemos si un sistema está «realmente entendiendo»? Qué métricas podemos usar? ¿Se podría decir que las máquinas «entienden» de manera diferente a los humanos? ¿Cuál es la diferencia entre simplemente representar algún aspecto del mundo, como un termostato representa la temperatura y realmente comprende lo que representa? Uno participante del taller comentó: “En mi opinión, la obligación recae sobre aquellos que creen que la «comprensión» es un proceso unificado y generalizado para mostrar cómo es esto en la cognición humana y datos de neurociencia «.
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La IA puede señalar cuando la correlación en realidad es causa-efecto

Una nueva investigación presentada en la conferencia de la AAAI en Nueva York prueba que se puede demostrar de forma útil y fiable que un caso de correlación en realidad es causalidad.

La investigación se ha centrado en otras formas de observar las variables causantes. Una teoría con origen en la física es que las cosas se desordenan y complican con el tiempo, la entropía, así que la causa debe sermenos desordenada y complicada que su efecto.

La teoría se ha aplicado al cáncer de mama y datasets de proteínas de señalización. En cada caso la IA señaló la variable causante. Se describen distintas pruebas.

El algoritmo y los datasets están disponibles en abierto en arxiv.

https://www.eurekalert.org/pub_releases/2020-02/b-aic020320.php

por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Crea tu sitio web con WordPress.com
Comenzar