Este artículo sostiene que el consecuencialismo representa un tipo de teoría ética que es la más plausible para servir de base a una ética de las máquinas. Comienza esbozando el concepto de agente moral artificial y las propiedades esenciales del consecuencialismo. A continuación, se presenta un escenario con vehículos autónomos para ilustrar cómo las características del consecuencialismo informan la acción del agente. En tercer lugar, se evalúa un enfoque deontológico alternativo y se discute el problema del conflicto moral. Por último, se presentarán dos enfoques ascendentes para el desarrollo de la ética de las máquinas y se cuestionarán brevemente.
Etiqueta: Causalidad Abstracción Razonamiento Analogía
Un premio Nobel contra la falacia que une correlación y causalidad
https://elpais.com/politica/2021/10/14/actualidad/1634222568_419481.html
Los economistas David Card, Joshua Angrist y Guido Imbens han obtenido el galardón por hacer más científica la economía, inventando trucos para atacar su pregunta más difícil: qué causa qué
Abstracción y creación de analogías en artificial Inteligencia
https://arxiv.org/abs/2102.10717
La abstracción conceptual y la creación de analogías son habilidades clave que subyacen a las capacidades de los seres humanos para aprender, razonar y adaptar de manera sólida su conocimiento a nuevos dominios. A pesar de una larga historia de investigación sobre la construcción de sistemas de IA con estas habilidades, ningún sistema de IA actual se acerca a la capacidad de formar abstracciones o analogías humanas. Este artículo revisa las ventajas y limitaciones de varios enfoques hacia este objetivo, incluidos los métodos simbólicos, el aprendizaje profundo y la inducción probabilística de programas. El artículo concluye con varias propuestas para diseñar tareas de desafío y medidas de evaluación con el fin de lograr avances cuantificables y generalizables en esta área.
Aprendizaje automático interpretable: breve historia, estado de la técnica y desafíos
Presentamos una breve historia del campo del aprendizaje automático interpretable (IML), brindamos una descripción general de los métodos de interpretación de vanguardia y discutimos los desafíos. La investigación en IML se ha disparado en los últimos años. Tan joven como es el campo, tiene más de 200 años de raíces en el modelado de regresión y el aprendizaje automático basado en reglas, a partir de la década de 1960. Recientemente, se han propuesto muchos métodos nuevos de IML, muchos de ellos independientes del modelo, pero también técnicas de interpretación específicas para el aprendizaje profundo y los conjuntos basados en árboles. Los métodos de IML analizan directamente los componentes del modelo, estudian la sensibilidad a las perturbaciones de entrada o analizan aproximaciones sustitutas locales o globales del modelo de ML. El campo se acerca a un estado de preparación y estabilidad, con muchos métodos no solo propuestos en la investigación, sino también implementados en software de código abierto. Pero aún quedan muchos desafíos importantes para el IML, como el manejo de las características dependientes, la interpretación causal y la estimación de la incertidumbre, que deben resolverse para su aplicación exitosa a problemas científicos. Otro desafío es la falta de una definición rigurosa de interpretabilidad, que es aceptada por la comunidad. Para abordar los desafíos y avanzar en el campo, instamos a recordar nuestras raíces del modelado interpretable y basado en datos en estadísticas y ML (basado en reglas), pero también a considerar otras áreas como el análisis de sensibilidad, la inferencia causal y las ciencias sociales. .
https://arxiv.org/abs/2010.09337
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).
Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.
Construyendo máquinas de pensamiento resolviendo tareas de cognición animal
En «Computing Machinery and Intelligence», Turing, escéptico de la pregunta «¿Pueden pensar las máquinas?», Rápidamente la reemplaza con una prueba verificable experimentalmente: el juego de imitación. Sugiero que para que tal movimiento tenga éxito, la prueba debe ser relevante, expansiva, solucionable con ejemplos, impredecible y conducir a una investigación procesable. El juego de la imitación solo tiene un éxito parcial en este sentido y su dependencia del lenguaje, si bien es útil para resolver parcialmente el problema, ha puesto el progreso de la IA en el pie equivocado, prescribiendo un enfoque de arriba hacia abajo para construir máquinas pensantes. Sostengo que para solucionar las deficiencias de los sistemas modernos de IA se requiere una operacionalización no verbal. Esto lo proporciona el reciente Animal-AI Testbed, que traduce pruebas de cognición animal para IA y proporciona una vía de investigación de abajo hacia arriba para construir máquinas pensantes que creen modelos predictivos de su entorno a partir de información sensorial.
https://www.readcube.com/articles/10.1007/s11023-020-09535-6
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).
Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.
El esfuerzo de la IA por lograr la "comprensión" y el "significado"
- la IA no tiene habilidades innanatas
- las redes neuronales no pueden extrapolar
- los seres humanos estamos en el mundo e interactuamos con él, la IA no está en el mundo
- la comprensión no es una función de pérdida o una marca
- encontrar el significado es un reto multidisciplinar
Simposium de Otoño 2020 sobre Abstracción
Organizado por AAAI y Sante Fe Institute, Melanie Mitchell.
Sobre la caída de la barrera del significado en la IA
Paper de Melanie Mitchell .
La IA puede señalar cuando la correlación en realidad es causa-efecto
Una nueva investigación presentada en la conferencia de la AAAI en Nueva York prueba que se puede demostrar de forma útil y fiable que un caso de correlación en realidad es causalidad.
La investigación se ha centrado en otras formas de observar las variables causantes. Una teoría con origen en la física es que las cosas se desordenan y complican con el tiempo, la entropía, así que la causa debe sermenos desordenada y complicada que su efecto.
La teoría se ha aplicado al cáncer de mama y datasets de proteínas de señalización. En cada caso la IA señaló la variable causante. Se describen distintas pruebas.
El algoritmo y los datasets están disponibles en abierto en arxiv.
https://www.eurekalert.org/pub_releases/2020-02/b-aic020320.php
por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)