Entrevista con Mark Coeckelbergh: Ética de la inteligencia artificial

Los desafíos de la inteligencia artificial exigen reflexiones morales y difícilmente se podrá articular una ética de las inteligencias artificiales sin libros y autores que la discutan críticamente. El filósofo belga Mark Coeckelberg acaba de publicar Ética de la inteligencia artificial (Cátedra, 2021), un libro claro y conciso sobre las posibilidades y los riesgos de nuestro futuro tecnológico.

ANDRÉS LOMEÑA: ¿Cree usted en una singularidad tecnológica por medio de una explosión de la inteligencia computacional? John Gray ha sido muy crítico con el transhumanismo.

MARK COECKELBERG: No creo en la singularidad ni en la explosión de inteligencia. Nuestras tecnologías, incluida la inteligencia artificial, seguirán mejorando, pero los transhumanistas tienden a hablar de posibilidades que hoy por hoy son ciencia-ficción y que muy probablemente seguirán siendo ciencia-ficción. Por tanto, estoy de acuerdo con Gray: esas ideas son quimeras.

Sin embargo, he estudiado los textos de los transhumanistas porque nos recuerdan temas muy importantes para la humanidad: cómo afrontamos la condición humana, la vulnerabilidad y sobre todo nuestros límites, nuestro deseo de perfección e inmortalidad o lo que eso significa para la tecnología. Como humanos nos contamos historias y estas deberían analizarse críticamente.

A.L.: Según Pedro Domingos, hay cinco paradigmas del aprendizaje automático: los simbolistas, los conexionistas, los evolucionistas, los bayesianos y los analogistas. ¿Deberíamos pensar en un esquema ético para cada uno de esos paradigmas o buscar una ética universal?

M.C.: Es importante saber que no hay un único tipo de inteligencia artificial ni de aprendizaje automático. Cada uno plantea problemas concretos. En ética, hay que observar el impacto de las tecnologías y muchas cuestiones morales son bastante similares, así que me decanto por un enfoque ético universalista, que luego habría que revisar y aplicar a contextos específicos con determinadas tecnologías. Al margen de las cuestiones técnicas de cada tecnología, todas ellas tendrán cierto impacto y a mi juicio, las consideraciones éticas deberían tenerse en cuenta en todo momento.

A.L.: Con el dilema del tranvía, toda consideración moral parece reducirse a decidir entre una ética kantiana o una ética utilitarista, decidir si la vida tiene un valor intrínseco o si se deben maximizar los beneficios y minimizar los daños. ¿No es esta una visión muy limitada?

M.C.: La ética no debería tratar solamente sobre qué teoría ética tenemos que usar. A mí me influyó el pragmatismo, lo que implica que deberíamos reconocer la relevancia de algunas teorías y usar muchas de sus herramientas conceptuales para resolver nuestros problemas.

La teoría no siempre es un buen punto de partida: deberíamos mirar también los dilemas morales, las experiencias morales y la imaginación moral que se ha creado con el uso de la inteligencia artificial y otras tecnologías relacionadas. Si la ética fuera simplemente un asunto de aplicar la teoría ética y el razonamiento, podríamos delegar esta tarea en una máquina. Afortunadamente, la ética y el ser humano son bastante más complejos. La filosofía y las humanidades, junto a la literatura y otras artes, deberían recordárnoslo.

A.L.: ¿Le parece un hito el aprendizaje profundo de GPT-3?

M.C.: GPT-3 es impresionante, y con el procesamiento de lenguajes naturales se esperan más progresos. Antes tuvimos AlphaGo. Sin embargo, no me interesa tanto la inteligencia técnica en sí misma como su desarrollo y saber qué podemos hacer con estas tecnologías para mejorar la sociedad. Las aplicaciones médicas parecen muy prometedoras. GPT-3 y tecnologías similares también podrían ayudar a investigar en el ámbito de las humanidades. Hay muchas oportunidades.

Tres cuestiones (o más) a Stuart Russell

Entrevista a Stuart Russell.

¿Cómo debería un sistema de IA tomar decisiones en un escenario donde se requieren elecciones inmediatas?
En cierto sentido, siempre se requieren elecciones inmediatas. Un robot (o un humano) siempre está haciendo algo, incluso si ese algo es no hacer nada. Supongo que la pregunta es abordar el problema de un robot que actúa sin la oportunidad de pedir permiso u obtener más información sobre las preferencias humanas. En tales casos, existe una compensación entre el costo potencial de la inacción y el costo potencial de hacer lo incorrecto.
Supongamos que el robot está solo en casa, la casa está a punto de verse envuelta en llamas por un incendio forestal y el robot puede salvar los álbumes de fotos familiares o el jerbo de la mascota, pero no ambos. No tiene idea de cuál tiene mayor valor para la familia. Bueno, ¿qué haría alguien?
¿Cómo podemos garantizar que las preferencias se actualicen a medida que la sociedad cambia con el tiempo? ¿La IA cambiará las preferencias de las personas si, p. ¿La solución de IA se considera la norma y la gente tiene miedo de expresar sus propias preferencias?
Los robots siempre aprenderán de los humanos y siempre tendrán como objetivo predecir cómo las personas quieren que sea el futuro, e incluso cómo querrán que sea el futuro, hasta que suceda. No existe una única «solución de IA» en cuanto a cuáles son las preferencias humanas; debería haber ocho mil millones de modelos predictivos.
Creo que se alentará positivamente a las personas a expresar sus preferencias, ya que eso permite que los sistemas de IA sean más útiles y eviten infracciones accidentales. Se supone que la democracia funciona de esta manera, pero solo podemos expresar aproximadamente 0.05 bits de información cada pocos años.
¿Cómo cree que se puede controlar la IA para minimizar el riesgo de sesgo?
Recientemente se ha trabajado mucho en este problema, dentro del subcampo de IA relacionado con la imparcialidad, la responsabilidad y la transparencia. Se discute en Human Compatible (pp.128-130). Creo que tenemos un buen manejo de las posibles definiciones de equidad y de los algoritmos que se ajustan a esas definiciones. Las organizaciones están comenzando a desarrollar prácticas internas para usar estas ideas y es muy probable que surja un consenso sobre los estándares de la industria y posiblemente la legislación.
Hemos progresado menos en la comprensión del contexto más amplio: cómo todo el sistema sociotécnico, del cual el sistema de inteligencia artificial es solo una parte, puede producir resultados sesgados. El próximo libro de Brian Christian, The Alignment Problem: Machine Learning and Human Values, tiene varios buenos ejemplos de esto. Otro buen ejemplo es el trabajo de Obermeyer et al., «Disección de prejuicios raciales en un algoritmo utilizado para administrar la salud de las poblaciones».
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

El esfuerzo de la IA por lograr la "comprensión" y el "significado"

la tecnología de inteligencia artificial más avanzada que tenemos hoy, nuestra mejor imitación del cerebro, puede ver, en el mejor de los casos, personas y rostros, detectar géneros y objetos, y proporcionar descripciones muy básicas, como «una pareja cenando en una mesa».
Esto es solo un vistazo de la capacidad de la mente humana para comprender el mundo, y cuán gran desafío sigue siendo su replicación después de seis décadas de investigación de inteligencia artificial.
«Los humanos son capaces de» comprender realmente «las situaciones que encuentran, mientras que incluso los sistemas de IA más avanzados de la actualidad aún no tienen una comprensión similar a la humana de los conceptos que estamos tratando de enseñarles», escribe el científico de la computación y el investigador de IA. Melanie Mitchell en su último artículo para AI Magazine.
En su artículo, Mitchell, quien también es profesora en el Instituto Santa Fe y autora de un libro reciente sobre inteligencia artificial, analiza las dificultades de los sistemas actuales de inteligencia artificial, es decir, el aprendizaje profundo, para extraer significado de la información que procesan.
El aprendizaje profundo es muy bueno para descubrir correlaciones entre toneladas de puntos de datos, pero cuando se trata de profundizar en los datos y formar abstracciones y conceptos, apenas rascan la superficie (incluso eso podría ser una exageración). Tenemos sistemas de inteligencia artificial que pueden ubicar objetos en imágenes y convertir audio a texto, pero ninguno que pueda empatizar con Aurelie y apreciar su malestar cuando su esposo ataca a Pomponette. De hecho, nuestros sistemas de IA comienzan a romperse tan pronto como se enfrentan a situaciones que son ligeramente diferentes de los datos en los que han sido entrenados.
Algunos científicos creen que tales límites se superarán a medida que escalemos los sistemas de aprendizaje profundo con redes neuronales más grandes y conjuntos de datos más grandes. Pero, sospecha Mitchell, podría faltar algo más fundamental.
Mitchell indica varios puntos
  • la IA no tiene habilidades innanatas
  • las redes neuronales no pueden extrapolar
  • los seres humanos estamos en el mundo e interactuamos con él, la IA no está en el mundo
  • la comprensión no es una función de pérdida o una marca
  • encontrar el significado es un reto multidisciplinar
«Para mí, las perspectivas de personas ajenas a la IA (en psicología, neurociencia, filosofía, etc.) ayudaron a mostrar cómo estos temas de ‘comprensión’ y ‘significado’ son simultáneamente clave para la inteligencia, pero también muy difíciles de estudiar», me dijo Mitchell. . “Escuchar a personas de la psicología y la neurociencia realmente nos llevó a casa lo compleja que es la inteligencia, no solo en humanos sino también en otros animales, desde arañas saltarinas hasta loros grises y nuestros primos primates. Y también que realmente no entendemos muy bien la inteligencia natural «.
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La niebla de la guerra cibernética

“En la guerra cinética, hay infraestructuras que son militares y civiles. Pero puede ser muy difícil hacer una distinción en la guerra cibernética, porque los civiles y los militares a menudo utilizan infraestructura y tecnología similares «.

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La Cuarta revolución y la Ética de la Información

Una entrevista a Luciano Floridi.

Explica lo que es la Ética Digital. Habla de la Cuarta Revolución del autoconocimiento.. Los Derechos Humanos son la base, pero hay que ver cómo se ponen en prácta

El final esun poco pesimista «No estoy tan seguro de que todo el sistema cambie, al menos, no sin que ocurra un desastre real primero.»
Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

IA como medio existencial

“No podemos simplemente decir que estos desarrollos son positivos. Una nueva oportunidad con la tecnología también puede incluir la vulnerabilidad. Es por eso que los humanistas como yo necesitamos involucrarnos. Pero no solo debemos criticar, también tenemos que asumir el desafío de manera creativa. Necesitamos hablar con los investigadores de IA sobre lo que queremos hacer con la IA, qué preguntas importantes de la sociedad podemos resolver, pero también qué valores están en juego «.

https://www.uu.se/en/news-media/news/article/?id=14652&typ=artikel

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Yann LeCun and Yoshua Bengio: el aprendizaje auto supervisado es clave parala inteligenci a nivel humano

Según los ganadores del Premio Turing, Yoshua Bengio y Yann LeCun, el aprendizaje auto supervisado podría conducir a la creación de una IA más parecida a la humana en su razonamiento. Bengio, director del Instituto de Algoritmos de Aprendizaje de Montreal, y LeCun, vicepresidente de Facebook y científico principal de IA, hablaron con franqueza sobre esta y otras tendencias de investigación durante una sesión en la Conferencia Internacional sobre Representación de Aprendizaje (ICLR) 2020, que tuvo lugar en línea.

https://venturebeat.com/2020/05/02/yann-lecun-and-yoshua-bengio-self-supervised-learning-is-the-key-to-human-level-intelligence/

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

No podemos permitirnos pensar utópicamente

Para el filósofo Luciano Floridi, es crucial comprender para qué queremos usar las nuevas tecnologías: los expertos aún no hacen suficientes preguntas éticas sobre la IA.

https://www.vodafone-institut.de/aiandi/we-cannot-allow-ourselves-to-think-in-an-utopian-way/

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

IA y el futuro del trabajo

Es un breve vídeo en el que la profesora Virginia Dignum explica muy sucintamente lo que es la IA, el origen de los sesgos y el impacto en el futuro del trabajo.

https://youtu.be/lgAUzCTdF7M

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Crea tu sitio web con WordPress.com
Comenzar