El riesgo existencial de la IA y la ortogonalidad: ¿Podemos tenerlo todo?

https://onlinelibrary.wiley.com/doi/full/10.1111/rati.12320#.YZLnhBoccAM.twitter

El argumento estándar para concluir que la inteligencia artificial (IA) constituye un riesgo existencial para la especie humana utiliza dos premisas: (1) La IA puede alcanzar niveles superinteligentes, momento en el que los humanos perderemos el control (la «afirmación de la singularidad»); (2) Cualquier nivel de inteligencia puede ir unido a cualquier objetivo (la «tesis de la ortogonalidad»). La tesis de la singularidad requiere una noción de «inteligencia general», mientras que la tesis de la ortogonalidad requiere una noción de «inteligencia instrumental». Si esta interpretación es correcta, no pueden unirse como premisas y el argumento del riesgo existencial de la IA resulta inválido. Si la interpretación es incorrecta y ambas premisas utilizan la misma noción de inteligencia, entonces al menos una de las premisas es falsa y la tesis de la ortogonalidad sigue siendo en sí misma ortogonal al argumento del riesgo existencial de la IA. En cualquier caso, el argumento estándar del riesgo existencial de la IA no es sólido. -Dicho esto, sigue existiendo el riesgo de que la IA instrumental cause daños muy importantes si se diseña o utiliza mal, aunque esto no se debe a la superinteligencia o a una singularidad.

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Crea tu sitio web con WordPress.com
Comenzar
A %d blogueros les gusta esto: