Anticiparse a las consecuencias tecnoeconómicas:La innovación sociotécnica impulsada por el propósito

ESTE número especial está dedicado a varios temas

que abarcan la tecnoeconomía y la innovación sociotécnica

en relación con la tecnología de interés público (TIP). El paradigma tecnoeconómico sustenta

la teoría del desarrollo económico y social basada en la innovación [punto 1) del Apéndice]. En la edición de junio de

IEEE TRANSACTIONS ON TECHNOLOGY AND SOCIETY,

Abbas et al. [punto 2) del Apéndice] escribieron sobre la

motivación para la invención y la innovación. Ciertamente, reconocemos

reconocemos el paso de un enfoque mecanicista a un enfoque

evolutivo en la economía, pero creemos que aún es necesario

que es necesario un cambio más, uno que implica inyectar

de diseño socio-técnico para la proliferación de las TIP.

de las TIP. Se trata de reconocer que el «desarrollo de la sociedad» debe ser el aspecto dominante al considerar

el paradigma tecnoeconómico, que en primera instancia

requiere una evaluación de la forma en que percibimos

la producción y el consumo.

I. PRODUCCIÓN, OBSOLESCENCIA Y GENERACIÓN DE USAR Y TIRAR

GENERACIÓN

El mundo se ha dedicado a maximizar la eficiencia

y la escala de producción desde al menos el comienzo de la

Revolución Industrial, y hemos mantenido la fidelidad

durante más de 260 años a través de una secuencia de ciclos de crecimiento económico

de crecimiento económico [punto 3) del Apéndice]. Donde antes estábamos acostumbrados a escenas de grandes plantas de fabricación industrial

que incorporaban un gran número de trabajadores, cada uno dedicado

a su tarea especializada, gradualmente a lo largo de las décadas hemos visto

hemos visto cómo se han introducido máquinas en las fábricas, automatizando grandes partes del proceso de fabricación. Lo que esto significa

es que ahora podemos producir aún más, continuamente, por menos.

Los productos básicos están en su punto más alto, y se nos promete

que se avecinan aún más con los miles de millones de dispositivos

dispositivos inteligentes que saldrán al mercado y que acabarán impregnando todos los aspectos de nuestras vidas. Este impulso no parece

Parece que este impulso no se va a ralentizar. ¿A dónde nos puede llevar esta cinta de producción? ¿Y por qué nos preocupan las «cosas»?

La acumulación de cosas, la necesidad de pagar por ellas, la

necesidad de poseer cosas, sobre todo cuando estas mismas cosas se vuelven rápidamente

se vuelven obsoletas.

En algunos casos, podemos referirnos a las estrategias corporativas deliberadas

de la empresa como obsolescencia planificada, cuyo objetivo es

fomentar las actualizaciones continuas de las cosas cada 6-12 meses

proporcionando tiempo suficiente para el diseño y desarrollo de

un nuevo producto, con lo que se inicia otra curva S en

Identificador de objetos digitales 10.1109/TTS.2021.3098046

una empresa. Mientras que los artefactos digitales pueden reproducirse infinitamente, los bienes físicos requieren importantes recursos, y estos

recursos son finitos. Incluso los medios de producción son finitos.

Y con las crecientes presiones para producir más y en menos

tiempo, corremos el riesgo de comprometer la calidad o el cuidado del

trabajador y otros actores operativos. Esto tiene inevitablemente

inevitablemente un efecto de flujo en el lado de la aplicación del proceso y

en los usuarios y, a veces, en la sociedad en general. Esta

Esta interacción entre la producción y la aplicación es como una danza

de toma y daca a escala. Es como un flash mob que se reúne en un centro comercial, brota insospechadamente con sigilo

capta la atención del público y crea un espectáculo para los espectadores, que finalmente sucumben a unirse y

participar en la experiencia. Pero las maravillas materiales de hoy no tienen nada de insospechadas. Son deliberadas, y

han estudiado meticulosamente cómo y por qué la gente

bailan [punto 4) del Apéndice].

Esto se ve agravado por los eslóganes sin contacto y

de contacto y sin fricción que leemos; la influencia del marketing dirigido

de los sistemas de marketing y persuasión que nos instan a conseguir el siguiente

de la compra, junto con la facilidad con la que podemos adquirir artículos a través de

un simple toque en un teléfono inteligente o pidiendo a «Alexa» que pida

otro artículo por nosotros. Este centro comercial ciberfísico inmersivo

de compras inmersivo ha reducido significativamente el esfuerzo necesario para que los consumidores

para acceder a los productos, comprarlos y recibirlos en la puerta de su casa.

puerta de casa. La ausencia de contacto y de fricción sólo significa que estamos

acumulando más, y luego tirando las cosas cuando

cuando funcionan mal o cuando buscamos la última actualización, sinónimo

con una generación de usar y tirar que piensa en la sostenibilidad pero

no la vive en su acción [puntos 5) del Apéndice]. El movimiento

movimiento del derecho a la reparación [punto 7) del Apéndice] desafía

el meme de «la resistencia es inútil» [punto 6) en el Apéndice],

pidiendo una respuesta sobria a las actualizaciones y la apertura, devolviendo

devolver el poder y el control a los ciudadanos.

II. CONSECUENCIAS TECNOECONÓMICAS

Los artículos de este número especial subrayan que si

Si mantenemos el rumbo actual a la hora de diseñar y desarrollar

productos, es decir, con un fuerte enfoque en la producción de artefactos tecnológicos para las masas, podemos encontrarnos con

con consecuencias no deseadas significativas, continuas y en espiral. Estas consecuencias pueden describirse como análogas

a las consecuencias de la red en el contexto de la exageración de la tecnoeconomía [punto 8) del Apéndice] en el ex

*** Translated with http://www.DeepL.com/Translator (free version) ***

El derecho a impugnar la IA

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3965041

La inteligencia artificial (IA) se utiliza cada vez más para tomar decisiones importantes, desde la selección de las admisiones universitarias hasta la determinación de los préstamos y la distribución de las vacunas COVID-19. Estos usos de la IA suscitan una serie de preocupaciones sobre la discriminación, la precisión, la equidad y la responsabilidad.

En Estados Unidos, las propuestas recientes para regular la IA se centran en gran medida en la gobernanza ex ante y sistémica. Este artículo defiende, en cambio -o en realidad, además-, un derecho individual a impugnar las decisiones de IA, basado en el debido proceso pero adaptado a la era digital. La Unión Europea, de hecho, reconoce tal derecho, y un número creciente de instituciones de todo el mundo reclaman ahora su establecimiento. Este artículo sostiene que, a pesar de las considerables diferencias entre Estados Unidos y otros países, el establecimiento del derecho a impugnar las decisiones en materia de IA estaría en consonancia con una larga tradición de la teoría del debido proceso.

A continuación, este artículo llena un vacío en la literatura, estableciendo un andamiaje teórico para debatir cómo debería ser el derecho de impugnación en la práctica. Este artículo establece cuatro arquetipos de impugnación que deberían servir de base para los debates sobre la impugnación tanto para el derecho a impugnar la IA como en otros contextos políticos. Los arquetipos de impugnación varían en dos ejes: desde las reglas de impugnación hasta las normas y desde el énfasis en el procedimiento hasta el establecimiento de derechos sustantivos. A continuación, este artículo analiza cuatro procesos que ilustran estos arquetipos en la práctica, incluido el primer examen en profundidad del derecho de impugnación del RGPD para un público estadounidense. Por último, este artículo integra las conclusiones de estas investigaciones para desarrollar una orientación normativa y práctica para establecer un derecho de impugnación de la IA.

Publicado El reconocimiento facial es un superpoder

El reconocimiento facial es un superpoder. Cómo te afectará y por qué deberías conocerlo

Análisis técnico, social, ético y regulatorio

http://hdl.handle.net/10016/33010

Publicación en acceso abierto

Los «bots de cuidado» están en aumento y están reemplazando a los cuidadores humanos

https://www.theguardian.com/us-news/2021/jun/03/care-bots-on-the-rise-elder-care

Si buscas «robots de atención» en Google, verás un ejército de mayordomos y enfermeras robot que toman los signos vitales en los hospitales, entregan rosas rojas a los pacientes y sirven jugo a los ancianos. En su mayor parte, estas son solo fantasías de ciencia ficción. Los bots de atención que ya existen tienen una apariencia diferente.

Estos robots de atención se parecen menos a robots y más a piezas invisibles de código, cámaras web y algoritmos. Pueden controlar quién se somete a qué prueba en el consultorio del médico o cuántas horas de atención recibe una persona con Medicaid. Y están en todas partes. Cada vez más, los cuidadores humanos trabajan a través y junto con sistemas automatizados que establecen recomendaciones, administran y vigilan su trabajo y asignan recursos.

Están surgiendo porque EE. UU. Ha invertido insuficientemente de manera crónica en infraestructura de atención, dependiendo en gran medida del apoyo familiar informal y una industria sostenida por trabajadores mal pagados, en su mayoría inmigrantes y mujeres de color. Estos trabajadores tienen un salario anual promedio de $ 25,000 y casi una cuarta parte de la fuerza laboral vive por debajo del umbral de pobreza federal. Sin embargo, la demanda de su trabajo se disparará. En los Estados Unidos, más de 50 millones de personas tienen más de 65 años, y se espera que este número casi se duplique para el año 2060. La pregunta se avecina: ¿quién cuidará de ellos?

Existe una fe creciente en que la tecnología puede llenar este vacío mediante la construcción rápida de sistemas de atención a escala, con la ayuda de inteligencia artificial y monitoreo remoto. Los trabajadores de hogares de ancianos agotados y con poco personal podrían tener sensores y cámaras web para ayudarlos a controlar la salud y el bienestar de los residentes. La creciente industria de «AgeTech» podría ayudar a las personas mayores a envejecer en la comodidad de sus hogares.

Como informa The Guardian hoy, por ejemplo, una compañía llamada CarePredict ha producido un dispositivo similar a un reloj que alerta a los cuidadores si los movimientos repetitivos de comer no se detectan como se esperaba, y una de sus patentes señala que puede inferir si alguien está «usando el baño». . Otra firma ha creado una tecnología que observa cuándo alguien se quedó dormido y si se bañó.

Dos argumentos en contra de la IA amigable con los humanos

https://link.springer.com/article/10.1007/s43681-021-00051-6

Las últimas décadas han visto un aumento sustancial en el enfoque en las innumerables implicaciones éticas de la inteligencia artificial. Entre los numerosos problemas se incluye el riesgo existencial que algunos creen que podría surgir del desarrollo de la inteligencia artificial general (AGI), que es una forma hipotética de IA que es capaz de realizar las mismas hazañas intelectuales que los humanos. Esto ha llevado a una extensa investigación sobre cómo los humanos pueden evitar perder el control de una IA que es al menos tan inteligente como la mejor de nosotros. Este «problema de control» ha dado lugar a investigaciones sobre el desarrollo de una «IA amigable», que es una AGI altamente competente que se beneficiará, o al menos, no será hostil hacia los humanos. Aunque mi pregunta se centra en la inteligencia artificial, la ética y los problemas que rodean el valor de la amabilidad, quiero cuestionar la búsqueda de una inteligencia artificial amigable con los humanos (en adelante, FAI). En otras palabras, podríamos preguntarnos si las preocupaciones sobre el daño a los humanos son razón suficiente para desarrollar FAI en lugar de un AGI imparcialmente ético, o un AGI diseñado para tomar en consideración los intereses de todos los pacientes morales, tanto humanos como no humanos. Sostengo que, dado que somos capaces de desarrollar AGI, debería desarrollarse con valores imparciales y neutrales en cuanto a especies, en lugar de aquellos que priorizan la amabilidad con los humanos por encima de todo.

La responsabilidad social de los juegos con IA

Durante la última década hemos visto como artificiales

la inteligencia se ha transformado en uno de los más importantes

temas de nuestro tiempo, y los juegos se han convertido en los mayores

industria del entretenimiento. Como resultado, la investigación de la IA de juegos como

ha disfrutado de un mayor acceso a la financiación, la exposición en el

prensa, e influencia con los gobiernos y algunos de los más grandes

empresas de tecnología en el mundo. En este momento crucial en el

historia de nuestro campo, este trabajo sostiene que esta posición privilegiada

trae consigo un importante conjunto de responsabilidades que tenemos

en gran medida no logró cumplir. Mostramos ante quién somos responsables,

identificar algunas de estas responsabilidades y sugerir acciones que

puede tomar como comunidad para aprovechar este poder para siempre.

Escala de amenazas de la inteligencia artificial (TAI)

En los últimos años, la Inteligencia Artificial (IA) ha ganado mucha popularidad, tanto entre la comunidad científica como entre el público. A menudo, a la IA se le atribuyen muchos impactos positivos para diferentes dominios sociales, como la medicina y la economía. Por otro lado, también existe una creciente preocupación por su precario impacto en la sociedad y las personas, respectivamente. Varias encuestas de opinión cuestionan con frecuencia el miedo del público a los robots autónomos y la inteligencia artificial, un fenómeno que también está siendo objeto de atención académica. Dado que las percepciones de amenazas potenciales posiblemente varían con respecto al alcance y las consecuencias de las funcionalidades de la inteligencia artificial y el dominio de aplicación, la investigación aún carece de la precisión necesaria de una medición respectiva que permita una aplicabilidad de investigación amplia. Proponemos una escala detallada para medir las percepciones de amenazas de la IA que representa cuatro clases funcionales de sistemas de IA y es aplicable a varios dominios de aplicaciones de IA. Utilizando un cuestionario estandarizado en un estudio de encuesta (N = 891), evaluamos la escala en tres dominios distintos de IA (tratamiento médico, contratación laboral y originación de préstamos). Los datos apoyan la estructura dimensional de la escala propuesta de Amenazas de la IA (TAI), así como la consistencia interna y la validez factorial de los indicadores. Las implicaciones de los resultados y la aplicación empírica de la escala se discuten en detalle. Se proporcionan recomendaciones para un uso empírico adicional de la escala TAI.

https://link.springer.com/article/10.1007/s12369-020-00734-w

Tenga cuidado al aplicar las ciencias del comportamiento a las políticas

 Los investigadores de las ciencias sociales y del comportamiento debaten periódicamente si su investigación debe utilizarse para abordar problemas urgentes en la sociedad. Para proporcionar algunos ejemplos, en la década de 1940, los psicólogos discutieron el uso de la investigación para abordar problemas relacionados con las relaciones intergrupales, los problemas que el Holocausto puso de relieve y otros actos de prejuicio desenfrenado. En la década de 1990, los psicólogos debatieron si su investigación debería informar la toma de decisiones legales. En la década de 2010, los psicólogos abogaron por asesorar a las ramas del gobierno como suelen hacer los economistas. Y ahora, en 2020, psicólogos y otros científicos sociales y del comportamiento argumentan que nuestra investigación debería informar la respuesta a la nueva enfermedad por coronavirus (en adelante COVID-19) 1,2.

Somos un equipo formado en su mayoría por psicólogos empíricos que realizan investigaciones sobre procesos básicos, aplicados y metacientíficos. Creemos que los científicos deben aplicar su creatividad, esfuerzos y talentos para servir a nuestra sociedad, especialmente durante las crisis. Sin embargo, la forma en que a menudo se lleva a cabo la investigación en ciencias sociales y del comportamiento hace que sea difícil saber si nuestros esfuerzos harán más bien que mal. Proporcionaremos algunos ejemplos del campo de la psicología de la personalidad social, donde la mayoría de nosotros fuimos entrenados, para ilustrar nuestras preocupaciones. Este enfoque no significa que nuestro campo solo sufra los problemas que discutiremos. En cambio, una creciente literatura de metaciencia sugiere que muchas otras disciplinas sociales y conductuales han encontrado dinámicas similares a las que enfrenta nuestro campo.

https://www.nature.com/articles/s41562-020-00990-w

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Cómo hacer que la IA sea más humana

 El progreso de la inteligencia artificial y otras tecnologías, el crujido del proceso político y las consecuencias económicas y políticas de la pandemia de coronavirus han hecho que el problema sea aún más urgente hoy, dice el profesor de la Facultad de Derecho de Brooklyn. La IA puede ayudar a las empresas a clasificar a los candidatos a puestos de trabajo, y más empresas lo están haciendo en el difícil entorno económico actual. Pero la tecnología puede simplemente perpetuar sesgos de larga data, oscureciéndolos con un barniz de ciencia. La adopción acelerada de la IA también amenaza con poner en peligro más puestos de trabajo en un momento en que la economía mundial se ha contraído más rápido que durante la crisis financiera mundial y decenas de millones de personas en todo el mundo han perdido su trabajo.

Lo que se necesita, dice Pasquale, es una IA más humana. Ese es el tema central de su próximo libro, New Laws of Robotics: Defending Human Expertise in the Age of AI, que se publicará a finales de octubre. La forma de llegar allí es democratizar el debate y el proceso de toma de decisiones en torno a la tecnología para que se consideren los derechos de las personas así como las ganancias corporativas, y para que la IA se adopte de manera que mejore el trabajo humano en lugar de reemplazarlo.

https://www.oliverwymanforum.com/city-readiness/2020/oct/how-to-make-ai-more-humane.html

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

¿Se pueden introducir los certificados de inmunidad digitales de forma no discriminatoria?

 La pandemia de COVID-19 ha provocado cambios revolucionarios en las prácticas laborales, pero ¿cómo juzgamos si son legales o ilegales?

Un cambio importante es el uso cada vez mayor, por parte de los empleadores que desean alentar al personal a regresar al trabajo, de nuevas formas de tecnología destinadas a garantizar un entorno de trabajo seguro. Muchos de estos sistemas otorgan (o rechazan) automáticamente el acceso a servicios y lugares de trabajo, y han recibido un gran interés de la prensa.

Un tipo de tecnología, implementada por gobiernos y empleadores, utiliza «pasaportes de inmunidad digital» o «certificados de inmunidad digital» para identificar a las personas con o sin anticuerpos COVID-19 en la sangre. Ahora se están formulando preguntas sobre si estas herramientas son legales. En esta publicación, consideramos sus implicaciones legales.

https://www.adalovelaceinstitute.org/can-digital-immunity-certificates-be-introduced-in-a-non-discriminatory-way/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Crea tu sitio web con WordPress.com
Comenzar