El precio de la libertad

https://www.springerin.at/en/2021/1/preis-der-freiheit/

El filósofo Mark Coeckelbergh se ha ocupado durante mucho tiempo del desarrollo de máquinas inteligentes y sus efectos en los conceptos de humanidad, transformación social y la ideología de lo trans y posthumano. Su reciente libro AI Ethics (MIT Press, 2020) proporciona una encuesta de las cuestiones morales más urgentes que surgen de estos desarrollos. ¿Deberíamos simplemente disfrutar de las nuevas libertades generadas por la IA como ofertas futuras sin ninguna alternativa? ¿Deberíamos desconfiar principalmente de las afirmaciones de una inteligencia no humana? ¿Dónde termina el altruismo con respecto al “otro” maquínico y dónde deberían comenzar las deliberaciones sobre una IA “digna de confianza”? Preguntas como estas son abordadas por Coeckelbergh en la siguiente entrevista.

Christian Höller: El discurso dominante sobre la inteligencia artificial se rige en gran medida por dos posiciones extremas: los temores de una «superinteligencia» o «singularidad tecnológica» en el futuro en un polo, y las visiones utópicas de un «Elíseo terrenal» (donde todo el trabajo desagradable y otras tareas mundanas o materiales son atendidas por máquinas). ¿Cómo cree que debería proceder un enfoque más realista pero aún crítico hacia la IA con respecto a estas dos narrativas dominantes?

Mark Coeckelbergh: Existe una narrativa en gran parte transhumanista sobre el futuro lejano, donde habrá humanos transformados o donde las máquinas tomarán el control, una época en la que colonizamos otros planetas y viajamos al universo. En cierto modo, entonces, realmente no importaría que ya no seamos humanos o que seamos reemplazados por máquinas superinteligentes. Personalmente, realmente no creo que alguna vez haya máquinas que puedan ser similares a los humanos o reemplazar a los humanos por medio de la IA general. Sin embargo, creo que tendremos muy buena IA para tareas específicas. Ya hoy en día hay resultados impresionantes para el reconocimiento de voz o para jugar a ciertos juegos. Pero soy escéptico de que la inteligencia general sea posible. Además, creo que es peligroso centrarse en escenarios tan abstractos y de futuro lejano porque esto descuida los problemas que tenemos en esta tierra, problemas que tienen que ver con la política y problemas sociales y ecológicos complejos.

La otra visión de las máquinas que se hacen cargo es que ya no tenemos que trabajar y que solo habrá tiempo libre. La idea de que los desarrollos tecnológicos conducirían a una sociedad del ocio ya es bastante antigua, pero en realidad no sucedió. Lo que sucede es que las tecnologías en el contexto del capitalismo se utilizan con fines capitalistas. En lugar de que todos tengan tiempo libre, existe una brecha entre las personas que trabajan en condiciones severas o precarias en entornos digitales, monitoreadas constantemente, etc., y las personas que pierden su trabajo o no tienen trabajo. Esta narrativa de una sociedad del ocio tampoco está sucediendo y nuevamente distrae de los problemas sociales y políticos reales que plantea la IA.

Höller: La inteligencia artificial se ha vuelto extremadamente omnipresente en muchas técnicas cotidianas, desde buscar en Internet hasta hacer recomendaciones de ventas, desde automóviles autónomos (aunque todavía no hay muchos) hasta la vigilancia predictiva. ¿Qué hace que sea tan urgente que se desarrollen ciertos “códigos éticos” con respecto a todas estas áreas, cuando se podría argumentar, al menos superficialmente, que todas estas son técnicas cuyo objetivo final es hacer la vida más fácil de muchas maneras? Que son por el bien común, por así decirlo.

Coeckelbergh: Esa es la razón estándar proporcionada por las empresas de tecnología, que quieren hacer la vida más fácil y solo quieren contribuir al bien de la humanidad. En parte, es cierto que las cosas se vuelven más fáciles porque ya no tenemos que hacer todo nosotros mismos. Pero hay ciertas consecuencias de delegar tareas a las máquinas. Estas consecuencias tienen que ver con problemas éticos como cuestiones de privacidad o cuestiones de responsabilidad. Además, podríamos preguntarnos cuánto más fácil se vuelve realmente la vida con el uso intensivo de equipos y tecnología electrónicos, que obviamente tiene efectos psicológicos y físicos. El correo electrónico, por ejemplo, facilita muchas cosas, pero como toda tecnología, todo el sistema comienza a cambiar con él y de repente te sientes abrumado y te encuentras en un entorno nuevo, casi taylorista, en el que los correos electrónicos pasan como si estuviera trabajando en una cinta transportadora. Así que realmente depende de cómo la tecnología reconfigure todo el sistema.

Höller: Mucho, por no decir que casi toda la investigación relevante de IA se lleva a cabo en laboratorios cerrados administrados por empresas privadas. Luego, la mayoría de las veces, las aplicaciones particulares se lanzan a un público que no tiene la menor idea de cómo funcionan exactamente los mecanismos detrás de ellas. ¿Deberían las empresas verse obligadas a publicar los protocolos exactos de cómo se construyen los algoritmos? Y si es así, ¿no sería esto una sobrecarga completa para la mayoría de los usuarios de tecnología?

Coeckelbergh: Definitivamente hay una brecha en términos de conocimiento, que también es una brecha en términos de poder. Sí creo que necesitamos una transferencia de conocimiento de las empresas al público pero no creo

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Crea tu sitio web con WordPress.com
Comenzar
A %d blogueros les gusta esto: