¿Cuál es la tecnología emergente más peligrosa?

https://gizmodo.com/whats-the-most-dangerous-emerging-technology-1847957403

Aquellos inclinados a pensar de forma apocalíptica saben que la tecnología, en su forma más pura, augura un desastre civilizatorio. Es cierto que tal vez nunca veamos un mundo lleno de violentos bebés hipertróficos CRISPR, y de incontrolables coches autodirigidos, y de IA decidida a convertir a los humanos en clips. Nuestro final acelerado por la tecnología, si es que llega, probablemente será un poco diferente y probablemente apestará de maneras que aún no podemos imaginar. Mientras tanto, sin embargo, vale la pena preguntarse: ¿cuál es la tecnología emergente más peligrosa? Para la edición de esta semana de Giz Asks, nos pusimos en contacto con una serie de expertos para averiguarlo.

Zephyr Teachout

Profesora asociada de Derecho, Universidad de Fordham

Vigilancia privada en el lugar de trabajo. La vigilancia privada en el lugar de trabajo modifica la ya de por sí terrible dinámica de poder entre empleadores y empleados al permitirles tratar a los empleados como conejillos de indias, con enormes asimetrías de información, sabiendo qué les motiva a trabajar de forma poco saludable y cómo pueden extraer más valor por menos salario. Les permite eliminar a los disidentes con sistemas de alerta temprana y destruir la solidaridad mediante un trato diferenciado. La investigación sobre el juego enseñó a los casinos a elaborar perfiles de juego para personalizar los llamamientos y poder ganar lo máximo posible a partir de los puntos débiles de cada jugador: esa tecnología, que ahora entra en la fuerza de trabajo, está a punto de ser omnipresente, a menos que la detengamos.

«Vigilancia privada en el lugar de trabajo. Despeja la ya de por sí horrible dinámica de poder entre empleador y empleado al permitir que los empleadores traten a los empleados como conejillos de indias…»

Michael Littman

Profesor de Informática, Universidad de Brown

Historias relacionadas

Un globo de lujo que sirve martinis al borde del espacio

La primera impresora 3D de Anker utiliza una cámara inteligente para detectar impresiones fallidas

LIGHTSPEED presenta: ‘Consejos de la Liga de Defensa Civil Temporal’ de Sandra McDonald

El informe 2021 AI100, publicado el mes pasado, incluía una sección sobre los peligros más acuciantes de la inteligencia artificial (IA). El panel de 17 expertos opinó que, a medida que los sistemas de IA demuestran ser cada vez más beneficiosos en las aplicaciones del mundo real, han ampliado su alcance, haciendo que proliferen los riesgos de uso indebido, excesivo y explícito.

Una de las mayores preocupaciones del panel sobre la IA es el «tecnosolucionismo», la actitud de que una tecnología como la IA puede utilizarse para resolver cualquier problema. El aura de neutralidad e imparcialidad que mucha gente asocia a la toma de decisiones de la IA hace que los sistemas se acepten como objetivos y útiles aunque se apliquen de forma inadecuada y puedan basarse en los resultados de decisiones históricas sesgadas o incluso en una discriminación flagrante. Si no hay transparencia en los datos o en los algoritmos de IA que los interpretan, el público puede no saber cómo se toman decisiones que tienen un impacto material en sus vidas. Los sistemas de IA se están utilizando al servicio de la desinformación en Internet, por lo que pueden convertirse en una amenaza para la democracia y en una herramienta para el fascismo. La insuficiente reflexión sobre los factores humanos de la integración de la IA ha llevado a oscilar entre la desconfianza en los sistemas basados en la IA y la excesiva confianza en esos sistemas. Los algoritmos de IA están desempeñando un papel en las decisiones relativas a la distribución de órganos, vacunas y otros elementos de la atención sanitaria, lo que significa que estos enfoques tienen un interés literal de vida o muerte.

Los peligros de la automatización de la IA se mitigan si, en cuestiones de consecuencias, las personas y organizaciones responsables de los resultados desempeñan un papel central en la forma en que se aplican los sistemas de IA. Involucrar a todas las partes interesadas puede ralentizar drásticamente el suministro de soluciones de IA a problemas difíciles, pero es necesario: los inconvenientes de una tecnología mal aplicada son demasiado grandes. Los tecnólogos harían bien en adoptar una versión del dictado sanitario: primero, no hacer daño.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Crea tu sitio web con WordPress.com
Comenzar
A %d blogueros les gusta esto: