Ética de la vigilancia: aprovechamiento del uso detecnologías de reconocimiento facial en vivo en espacios públicosen espacios públicos para la aplicación de la ley

La dependencia de los datos es una de las características intrínsecas de la IA. Los datos personales son

para alimentar los conjuntos de datos utilizados para entrenar los sistemas de aprendizaje automático

y construir modelos algorítmicos. Una vez establecidos los modelos, se pueden

aplicarse a los datos personales y utilizarse para analizar o hacer inferencias y

predicciones sobre individuos concretos. Esto también se aplica a los sistemas de

sistemas de reconocimiento facial, lo que implica riesgos para varios derechos individuales

en particular, la privacidad. En este informe, enmarcamos la aplicación de estos sistemas

sistemas en el contexto particular de la vigilancia del espacio público por parte de las

público con fines policiales. La privacidad, el consentimiento y la

proporcionalidad son tres aspectos interrelacionados necesarios para describir la

ética de la vigilancia del espacio público y para considerar la aplicación responsable

la aplicación responsable de estos sistemas basados en la IA.

Si la IA predice tu futuro, ¿sigues siendo libre?

https://www.wired.com/story/algorithmic-prophecies-undermine-free-will/

Carissa Véliz

MIENTRAS LEES estas palabras, es probable que haya docenas de algoritmos haciendo predicciones sobre ti. Probablemente fue un algoritmo el que determinó que estarías expuesto a este artículo porque predijo que lo leerías. Las predicciones algorítmicas pueden determinar si consigues un préstamo o un trabajo o un apartamento o un seguro, y mucho más.

Estos análisis predictivos están conquistando cada vez más esferas de la vida. Y, sin embargo, nadie te ha pedido permiso para hacer esas predicciones. Ningún organismo gubernamental las supervisa. Nadie le informa sobre las profecías que determinan su destino. Peor aún, una búsqueda en la literatura académica sobre la ética de la predicción muestra que es un campo de conocimiento poco explorado. Como sociedad, no hemos reflexionado sobre las implicaciones éticas de hacer predicciones sobre personas-seres que se supone están dotadas de agencia y libre albedrío.

Desafiar las probabilidades está en el corazón de lo que significa ser humano. Nuestros mayores héroes son aquellos que desafiaron las probabilidades: Abraham Lincoln, Mahatma Gandhi, Marie Curie, Hellen Keller, Rosa Parks, Nelson Mandela y otros. Todos ellos triunfaron más allá de las expectativas. Todos los profesores conocen a niños que han logrado más de lo que les tocó en sus cartas. Además de mejorar la base de todos, queremos una sociedad que permita y estimule acciones que desafíen las probabilidades. Sin embargo, cuanto más utilicemos la IA para clasificar a las personas, predecir su futuro y tratarlas en consecuencia, más reduciremos la capacidad de acción humana, lo que a su vez nos expondrá a riesgos desconocidos.

Si la IA predice tu futuro, ¿sigues siendo libre?

https://www.wired.com/story/algorithmic-prophecies-undermine-free-will/

MIENTRAS LEES estas palabras, es probable que haya docenas de algoritmos haciendo predicciones sobre ti. Probablemente fue un algoritmo el que determinó que estarías expuesto a este artículo porque predijo que lo leerías. Las predicciones algorítmicas pueden determinar si consigues un préstamo o un trabajo o un apartamento o un seguro, y mucho más.

Estos análisis predictivos están conquistando cada vez más esferas de la vida. Y, sin embargo, nadie te ha pedido permiso para hacer esas predicciones. Ningún organismo gubernamental las supervisa. Nadie le informa sobre las profecías que determinan su destino. Peor aún, una búsqueda en la literatura académica sobre la ética de la predicción muestra que es un campo de conocimiento poco explorado. Como sociedad, no hemos reflexionado sobre las implicaciones éticas de hacer predicciones sobre personas-seres que se supone están dotadas de agencia y libre albedrío.

Desafiar las probabilidades está en el corazón de lo que significa ser humano. Nuestros mayores héroes son aquellos que desafiaron las probabilidades: Abraham Lincoln, Mahatma Gandhi, Marie Curie, Hellen Keller, Rosa Parks, Nelson Mandela y otros. Todos ellos triunfaron más allá de las expectativas. Todos los profesores conocen a niños que han logrado más de lo que les tocó en sus cartas. Además de mejorar la base de todos, queremos una sociedad que permita y estimule acciones que desafíen las probabilidades. Sin embargo, cuanto más utilicemos la IA para clasificar a las personas, predecir su futuro y tratarlas en consecuencia, más reduciremos la capacidad de acción humana, lo que a su vez nos expondrá a riesgos desconocidos.

LOS SERES HUMANOS han utilizado la predicción desde antes del Oráculo de Delfos. Las guerras se libraban sobre la base de esas predicciones. En décadas más recientes, la predicción se ha utilizado para informar sobre prácticas como la fijación de las primas de los seguros. Esas predicciones solían referirse a grandes grupos de personas: por ejemplo, cuántas personas de entre 100.000 chocarán sus coches. Algunos de esos individuos serían más cuidadosos y afortunados que otros, pero las primas eran más o menos homogéneas (excepto en categorías amplias como los grupos de edad) bajo el supuesto de que la agrupación de riesgos permite compensar los costes más altos de los menos cuidadosos y afortunados con los costes relativamente más bajos de los cuidadosos y afortunados. Cuanto mayor es el grupo, más predecibles y estables son las primas.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Agentes artificiales virtuosos: de la teoría a la aplicación en máquina

https://link.springer.com/article/10.1007/s00146-021-01325-7

La ética de la virtud se ha sugerido muchas veces como una receta prometedora para la construcción de agentes morales artificiales debido a su énfasis en el carácter moral y el aprendizaje. Sin embargo, dada la compleja naturaleza de la teoría, casi ningún trabajo ha intentado de facto aplicar los principios básicos de la ética de la virtud en las máquinas morales. El objetivo principal de este trabajo es demostrar cómo la ética de la virtud puede ser llevada desde la teoría hasta la implementación en máquinas. Para lograr este objetivo, exploramos críticamente las posibilidades y los desafíos de la ética de la virtud desde una perspectiva computacional. Basándonos en trabajos conceptuales y técnicos anteriores, esbozamos una versión de la virtud artificial basada en el funcionalismo moral, el aprendizaje ascendente conexionista y la recompensa eudaimónica. A continuación, describimos cómo las características principales de la teoría esbozada pueden interpretarse en términos de funcionalidad, lo que a su vez informa del diseño de los componentes necesarios para la cognición virtuosa. Por último, presentamos un marco global para el desarrollo técnico de agentes virtuosos artificiales y discutimos cómo pueden implementarse en entornos morales.

La IA y el Todo en el Mundo

https://openreview.net/pdf?id=j6NxpQbREA1

Hay una tendencia en los diferentes subcampos de la IA a valorar una pequeña colección

de puntos de referencia influyentes. Estos puntos de referencia actúan como sustitutos de una serie de

de problemas comunes ungidos que a menudo se enmarcan como hitos fundacionales en el camino hacia sistemas de IA flexibles y generalizables. El estado de la técnica

El rendimiento del estado de la técnica en estos puntos de referencia se considera un indicador del progreso

hacia estos objetivos a largo plazo. En este documento de posición, exploramos los límites de estos

para poner de manifiesto los problemas de validez de constructo que plantean como medidas

como las medidas de progreso funcionalmente «generales» que pretenden ser.

Impugnación jurídica de la toma de decisiones relacionadas con la inteligencia artificial en el Reino Unido: reflexiones para la política

https://www.tandfonline.com/doi/full/10.1080/13600869.2021.1999075

Este documento considera la impugnación legal en el Reino Unido como una fuente de reflexiones útiles para la política de IA. El gobierno ha publicado una «Estrategia Nacional de Inteligencia Artificial», pero no está claro hasta qué punto será eficaz, dadas las dudas sobre los niveles de confianza del público. Una de las principales preocupaciones es la aparente «desviación» de la ley por parte del Reino Unido. Se convocaron una serie de actos para investigar las perspectivas jurídicas críticas sobre estos temas, que culminaron en un taller de expertos que abordó cinco sectores. Los participantes debatieron sobre la IA en el contexto de las tendencias más amplias hacia la toma de decisiones automatizada (ADM). Se espera que continúe la reciente proliferación de acciones legales. Los debates pusieron de manifiesto las diversas formas en que los ejemplos individuales se conectan sistemáticamente con la evolución de la gobernanza y la «toma de decisiones relacionadas con la IA» en general, sobre todo debido a los problemas crónicos de transparencia y concienciación. Esto proporciona una visión fresca y actual de las perspectivas de los grupos clave que plantean críticas relevantes para la política en este ámbito. La negligencia de los responsables políticos con respecto a la ley y los procesos legales está contribuyendo a los problemas de calidad de la reciente aplicación práctica de la IA en el Reino Unido. Ahora se necesitan señales contundentes para pasar del círculo vicioso de la creciente desconfianza a un enfoque capaz de generar la confianza del público. Se resumen las sugerencias para que las consideren los responsables políticos.

Identidad digital y biometría: Cuando tu cara revela tu estado de vacunación … y más

https://lens.monash.edu/@politics-society/2021/11/17/1384067/digital-identity-when-your-face-reveals-your-vaccination-status-and-more

A medida que muchos australianos salen de las restricciones de cierre, se enfrentan a una serie de nuevos puntos de control: en las tiendas, el lugar de trabajo, los lugares de ocio y las fronteras estatales.

Muchos de nosotros no solo tenemos que registrarnos en varios lugares escaneando códigos QR, sino que ahora se nos exige que mostremos una prueba de vacunación y, en algunos contextos, una prueba de pruebas de COVID-19 negativas.

El resultado ha sido la imagen cada vez más familiar de personas tanteando con sus teléfonos inteligentes en la acera frente a cualquier espacio en el que intentan entrar. En algunos casos, esto puede significar frustrantes combates con las aplicaciones («¿Cuál era el código PIN de la aplicación de Medicare?»; «¿Lo he vinculado a mi cuenta de MyGov?»; «¿Dónde está ese texto con los resultados de mis pruebas?»; «Uh-oh… ¡mi batería se está agotando!»).

Australia no está sola. La pandemia ha contribuido a un nuevo conjunto de protocolos para viajes y accesos de todo tipo, todo ello en nombre del control de la circulación humana para frustrar la del virus.

Estas nuevas capas de verificación y control sientan las bases de una tecnología que ofrece cortar el nudo gordiano de las contraseñas, los nombres de usuario, los códigos PIN y QR, así como los pasaportes, las tarjetas de vacunas y los billetes de papel: la biometría.

Aprovechando el éxito del uso de la tecnología de reconocimiento facial para el control fronterizo, la Asociación Internacional de Transporte Aéreo (IATA) ha presentado una iniciativa de pases de viaje que permitiría un tránsito «sin fisuras», respetando las restricciones de la pandemia. De acuerdo con la afirmación de la IATA de que «el futuro de la aviación es biométrico», su solución «One ID» no sólo identificaría las credenciales de viaje de un pasajero, sino que las vincularía, a nivel internacional, con el estado de las vacunas de los viajeros, los resultados de las pruebas y/o la «prueba de recuperación».

La solución «One ID» aborda un problema que no se limita a los viajes aéreos -o a la respuesta a la COVID-19-, sino que se ve agravado por la perspectiva de viajar en tiempos de pandemia.

En términos más generales, nos encontramos navegando por una creciente variedad de solicitudes de acceso y puntos de control tanto en línea como fuera de ella. Según algunas estimaciones, la persona media con acceso a dispositivos inteligentes y recursos en línea tiene unas 100 contraseñas, y este número está creciendo rápidamente. La proliferación de los servicios en línea puede facilitar el acceso, pero arroja obstáculos en forma de credenciales de acceso, como probablemente ha descubierto cualquiera que haya tenido que restablecer su sistema de identificación de dos factores.

Utilizamos contraseñas para ver la televisión y las películas, para acceder al banco, a la biblioteca, a nuestros libros, a nuestro correo electrónico, a nuestros periódicos, a la intranet del trabajo, a los boletines de notas de nuestros hijos, a nuestros sitios de compras, a nuestro proveedor de servicios de Internet, a nuestra cuenta de servicios gubernamentales, a nuestra cuenta de peaje en la autopista, a nuestra música, a nuestras cuentas en las redes sociales, a nuestros juegos en línea, a nuestros documentos y calendarios, y así sucesivamente.

El actual intento de controlar la propagación del COVID-19 significa que el espacio físico se parecerá más a los espacios protegidos por contraseña en línea; tendremos que mostrar credenciales para verificar nuestro estado de inmunidad y marcar nuestros movimientos a medida que avancemos en el curso de nuestra vida cotidiana: presentarnos en el trabajo, ir a un café para almorzar o al teatro por la noche.

Estas formas de «fricción» que se multiplican al movernos por el espacio físico y virtual sientan las bases para una solución biométrica unificada, una respuesta tecnológica a los obstáculos digitales que se multiplican a nuestro alrededor.

La solución «One ID» prevista por la IATA para los viajes en avión anticipa un mundo en el que, en lugar de tener que lidiar con los pasaportes y otras formas de identificación, seremos reconocidos por sistemas automatizados que nos permitirán pasar sin problemas por estos puntos de control.

*** Translated with http://www.DeepL.com/Translator (free version) ***

La falacia de la entrada

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3571266

La fijación algorítmica de los precios del crédito amenaza con discriminar a los grupos protegidos. Tradicionalmente, la ley de préstamos justos ha abordado estas amenazas mediante el escrutinio de los insumos. Pero el escrutinio de los insumos se ha convertido en una falacia en el mundo de los algoritmos.

Utilizando un rico conjunto de datos de hipotecas, simulo la fijación de precios de créditos algorítmicos y demuestro que el escrutinio de los insumos no aborda los problemas de discriminación y amenaza con crear un mito algorítmico de daltonismo. La ubicuidad de las correlaciones en los grandes datos, combinada con la flexibilidad y la complejidad del aprendizaje automático, significa que no se puede descartar la consideración de características protegidas, como la raza, incluso cuando se excluyen formalmente. Además, el uso de datos que incluyan características protegidas puede, de hecho, reducir los resultados dispares.

Sin embargo, los principales enfoques de la legislación sobre discriminación en la era de los algoritmos siguen cometiendo la falacia de los insumos. Estos enfoques sugieren que excluyamos las características protegidas y sus sustitutos y que limitemos los algoritmos a los insumos preaprobados. Utilizando mi ejercicio de simulación, refuto estos enfoques con un nuevo análisis. Demuestro que fallan en sus propios términos, que son inviables y que pasan por alto los beneficios de una predicción precisa. Estos fallos son especialmente perjudiciales para los grupos e individuos marginados porque amenazan con perpetuar su exclusión histórica del crédito y, por tanto, de una vía central para lograr una mayor prosperidad e igualdad.

Sostengo que la ley de préstamos justos debe cambiar a un análisis centrado en los resultados. Cuando ya no es posible examinar los insumos, el análisis de los resultados es la única forma de evaluar si un método de fijación de precios da lugar a disparidades inadmisibles. Esto es cierto no sólo en virtud de la doctrina jurídica del impacto dispar, que siempre se ha preocupado por los resultados, sino también en virtud de la doctrina del trato dispar, que históricamente ha evitado examinar los resultados dispares. Ahora, el tratamiento dispar ya no puede basarse en el escrutinio de la entrada y debe considerarse a través de la lente de los resultados. Propongo un nuevo marco que los organismos reguladores, como la Oficina de Protección Financiera del Consumidor, pueden adoptar para medir las disparidades y luchar contra la discriminación. Esta propuesta traza un camino empírico para la legislación antidiscriminatoria en materia de préstamos justos y también es prometedora para otros contextos algorítmicos, como la justicia penal y el empleo.

*** Translated with http://www.DeepL.com/Translator (free version) ***

EL ELEVADO COSTE DE LA CAPTURA

https://interactions.acm.org/archive/view/november-december-2021/the-steep-cost-of-capture

Este es un momento peligroso. Los sistemas informáticos privados comercializados como inteligencia artificial (IA) se están introduciendo en nuestra vida e instituciones públicas, concentrando el poder industrial, agravando la marginación y configurando silenciosamente el acceso a los recursos y la información.

ins01.gif

A la hora de considerar cómo hacer frente a este ataque de la IA industrial, debemos reconocer en primer lugar que los «avances» de la IA celebrados en la última década no se debieron a avances científicos fundamentales en las técnicas de IA. Fueron y son principalmente el producto de una concentración significativa de datos y recursos de computación que residen en las manos de unas pocas grandes corporaciones tecnológicas. La IA moderna depende fundamentalmente de los recursos y las prácticas comerciales de las empresas, y nuestra creciente dependencia de dicha IA cede un poder desmesurado sobre nuestras vidas e instituciones a un puñado de empresas tecnológicas. También da a estas empresas una influencia significativa tanto en la dirección del desarrollo de la IA como en las instituciones académicas que desean investigarla. Esto significa que las empresas tecnológicas están sorprendentemente bien posicionadas para dar forma a lo que sabemos -y a lo que no sabemos- sobre la IA y el negocio que hay detrás, al mismo tiempo que sus productos de IA están trabajando para dar forma a nuestras vidas e instituciones.

volver al principio Perspectivas

→ El control de las grandes tecnológicas sobre los recursos de la IA hizo que las universidades y otras instituciones dependieran de estas empresas, creando una red de relaciones conflictivas que amenazan la libertad académica y nuestra capacidad para entender y regular estas tecnologías corporativas.

→ Para garantizar una investigación independiente y rigurosa y una defensa capaz de entender y comprobar estas tecnologías, y las empresas que están detrás de ellas, necesitamos organizarnos, dentro de la tecnología y dentro de la universidad.

Al examinar la historia de la influencia del ejército estadounidense sobre la investigación científica durante la Guerra Fría, vemos paralelismos con la influencia actual de la industria tecnológica sobre la IA. Esta historia también ofrece ejemplos alarmantes de la forma en que el dominio militar de EE.UU. trabajó para dar forma a la producción de conocimiento académico, y para castigar a los que disentían.

Hoy en día, la industria tecnológica se enfrenta a una presión reguladora cada vez mayor, y está aumentando sus esfuerzos para crear narrativas positivas para la tecnología y para silenciar y marginar a los críticos de la misma manera que el ejército de EE.UU. y sus aliados lo hicieron en el pasado. En conjunto, vemos que el dominio de la industria tecnológica en la investigación y la producción de conocimientos sobre la IA coloca a los investigadores y defensores críticos dentro y fuera del ámbito académico en una posición traicionera. Esto amenaza con privar a las comunidades de primera línea, a los responsables políticos y al público de conocimientos vitales sobre los costes y las consecuencias de la IA y la industria responsable de ella, justo en el momento en que este trabajo es más necesario.

Al revisar el alcance de la influencia actual de las grandes empresas tecnológicas sobre la IA y la investigación en IA, es útil comenzar con una breve historia del actual giro hacia la IA. Dado que el campo de la IA tiene casi 70 años y ha pasado por varios «inviernos de la IA», ¿por qué la IA se hizo grande en la última década? ¿Y de qué hablamos cuando hablamos de IA? La respuesta a estas preguntas pone de manifiesto la mutabilidad del término IA. También centra nuestra atención en la centralidad de los recursos corporativos concentrados en el actual auge de la IA, y en cómo el control monopolístico de estos recursos dio a un puñado de empresas tecnológicas la autoridad para (re)definir el campo de la IA, al tiempo que encerraba el conocimiento sobre los sistemas de IA tras el secreto corporativo.

Las empresas tecnológicas están sorprendentemente bien posicionadas para dar forma a lo que sabemos -y lo que no sabemos- sobre la IA y el negocio que hay detrás, al mismo tiempo que sus productos de IA están trabajando para dar forma a nuestras vidas e instituciones.

En 2012, un equipo de investigación con sede en Toronto creó un algoritmo llamado AlexNet que ganó el reto de reconocimiento visual a gran escala de ImageNet. Esto marcó un momento clave en la historia reciente de la IA y fue un gran acontecimiento en la industria tecnológica. Demostró que el aprendizaje automático supervisado era sorprendentemente eficaz en el reconocimiento predictivo de patrones cuando se entrenaba utilizando una potencia computacional significativa y cantidades masivas de datos etiquetados [1]. El algoritmo AlexNet se basaba en técnicas de aprendizaje automático que tenían casi dos décadas de antigüedad. Pero no fue el algoritmo lo que supuso un gran avance: fue lo que el algoritmo podía hacer cuando se combinaba con datos a gran escala y recursos computacionales.

AlexNet trazó un camino a seguir para las grandes empresas tecnológicas que buscan cimentar y ampliar su poder. Los recursos de los que dependía el éxito de AlexNet eran los que las grandes empresas tecnológicas ya controlaban: una vasta infraestructura computacional, cantidades masivas de datos (y sistemas para procesarlos y almacenarlos), un alcance arraigado en el mercado que garantizaba la recopilación persistente de datos, y el capital para contratar y retener el escaso talento. Yoshua Bengio, uno de los precursores de la investigación en IA, lo expresó de forma sencilla: «La potencia [informática], la experiencia y los datos están concentrados en manos de unas pocas empresas» [2].

El año 2012 mostró el potencial comercial del aprendizaje automático supervisado, y el poder del término IA como 

*** Translated with http://www.DeepL.com/Translator (free version) ***

Anticiparse a las consecuencias tecnoeconómicas:La innovación sociotécnica impulsada por el propósito

ESTE número especial está dedicado a varios temas

que abarcan la tecnoeconomía y la innovación sociotécnica

en relación con la tecnología de interés público (TIP). El paradigma tecnoeconómico sustenta

la teoría del desarrollo económico y social basada en la innovación [punto 1) del Apéndice]. En la edición de junio de

IEEE TRANSACTIONS ON TECHNOLOGY AND SOCIETY,

Abbas et al. [punto 2) del Apéndice] escribieron sobre la

motivación para la invención y la innovación. Ciertamente, reconocemos

reconocemos el paso de un enfoque mecanicista a un enfoque

evolutivo en la economía, pero creemos que aún es necesario

que es necesario un cambio más, uno que implica inyectar

de diseño socio-técnico para la proliferación de las TIP.

de las TIP. Se trata de reconocer que el «desarrollo de la sociedad» debe ser el aspecto dominante al considerar

el paradigma tecnoeconómico, que en primera instancia

requiere una evaluación de la forma en que percibimos

la producción y el consumo.

I. PRODUCCIÓN, OBSOLESCENCIA Y GENERACIÓN DE USAR Y TIRAR

GENERACIÓN

El mundo se ha dedicado a maximizar la eficiencia

y la escala de producción desde al menos el comienzo de la

Revolución Industrial, y hemos mantenido la fidelidad

durante más de 260 años a través de una secuencia de ciclos de crecimiento económico

de crecimiento económico [punto 3) del Apéndice]. Donde antes estábamos acostumbrados a escenas de grandes plantas de fabricación industrial

que incorporaban un gran número de trabajadores, cada uno dedicado

a su tarea especializada, gradualmente a lo largo de las décadas hemos visto

hemos visto cómo se han introducido máquinas en las fábricas, automatizando grandes partes del proceso de fabricación. Lo que esto significa

es que ahora podemos producir aún más, continuamente, por menos.

Los productos básicos están en su punto más alto, y se nos promete

que se avecinan aún más con los miles de millones de dispositivos

dispositivos inteligentes que saldrán al mercado y que acabarán impregnando todos los aspectos de nuestras vidas. Este impulso no parece

Parece que este impulso no se va a ralentizar. ¿A dónde nos puede llevar esta cinta de producción? ¿Y por qué nos preocupan las «cosas»?

La acumulación de cosas, la necesidad de pagar por ellas, la

necesidad de poseer cosas, sobre todo cuando estas mismas cosas se vuelven rápidamente

se vuelven obsoletas.

En algunos casos, podemos referirnos a las estrategias corporativas deliberadas

de la empresa como obsolescencia planificada, cuyo objetivo es

fomentar las actualizaciones continuas de las cosas cada 6-12 meses

proporcionando tiempo suficiente para el diseño y desarrollo de

un nuevo producto, con lo que se inicia otra curva S en

Identificador de objetos digitales 10.1109/TTS.2021.3098046

una empresa. Mientras que los artefactos digitales pueden reproducirse infinitamente, los bienes físicos requieren importantes recursos, y estos

recursos son finitos. Incluso los medios de producción son finitos.

Y con las crecientes presiones para producir más y en menos

tiempo, corremos el riesgo de comprometer la calidad o el cuidado del

trabajador y otros actores operativos. Esto tiene inevitablemente

inevitablemente un efecto de flujo en el lado de la aplicación del proceso y

en los usuarios y, a veces, en la sociedad en general. Esta

Esta interacción entre la producción y la aplicación es como una danza

de toma y daca a escala. Es como un flash mob que se reúne en un centro comercial, brota insospechadamente con sigilo

capta la atención del público y crea un espectáculo para los espectadores, que finalmente sucumben a unirse y

participar en la experiencia. Pero las maravillas materiales de hoy no tienen nada de insospechadas. Son deliberadas, y

han estudiado meticulosamente cómo y por qué la gente

bailan [punto 4) del Apéndice].

Esto se ve agravado por los eslóganes sin contacto y

de contacto y sin fricción que leemos; la influencia del marketing dirigido

de los sistemas de marketing y persuasión que nos instan a conseguir el siguiente

de la compra, junto con la facilidad con la que podemos adquirir artículos a través de

un simple toque en un teléfono inteligente o pidiendo a «Alexa» que pida

otro artículo por nosotros. Este centro comercial ciberfísico inmersivo

de compras inmersivo ha reducido significativamente el esfuerzo necesario para que los consumidores

para acceder a los productos, comprarlos y recibirlos en la puerta de su casa.

puerta de casa. La ausencia de contacto y de fricción sólo significa que estamos

acumulando más, y luego tirando las cosas cuando

cuando funcionan mal o cuando buscamos la última actualización, sinónimo

con una generación de usar y tirar que piensa en la sostenibilidad pero

no la vive en su acción [puntos 5) del Apéndice]. El movimiento

movimiento del derecho a la reparación [punto 7) del Apéndice] desafía

el meme de «la resistencia es inútil» [punto 6) en el Apéndice],

pidiendo una respuesta sobria a las actualizaciones y la apertura, devolviendo

devolver el poder y el control a los ciudadanos.

II. CONSECUENCIAS TECNOECONÓMICAS

Los artículos de este número especial subrayan que si

Si mantenemos el rumbo actual a la hora de diseñar y desarrollar

productos, es decir, con un fuerte enfoque en la producción de artefactos tecnológicos para las masas, podemos encontrarnos con

con consecuencias no deseadas significativas, continuas y en espiral. Estas consecuencias pueden describirse como análogas

a las consecuencias de la red en el contexto de la exageración de la tecnoeconomía [punto 8) del Apéndice] en el ex

*** Translated with http://www.DeepL.com/Translator (free version) ***

Crea tu sitio web con WordPress.com
Comenzar