Los riesgos de utilizar la inteligencia artificial para el trabajo gubernamental

Las promesas y los imperativos de las mejoras tecnológicas a los sistemas públicos parecen evidentes: los sistemas mejor diseñados pueden mejorar el acceso, reducir las ineficiencias y, en la pandemia actual, mantenernos más saludables y seguros.

Sin embargo, ver los sistemas algorítmicos como una solución fácil para problemas institucionalizados arraigados empeorará estos problemas. Para lograr todo el potencial de las nuevas tecnologías, primero debemos desarrollar e instituir la supervisión adecuada en nuestros procesos de contratación pública.

Los sistemas de IA, en particular, plantean nuevos riesgos para la sociedad a medida que invaden el uso público. Nuestros procesos democráticos corren el riesgo de ser subvertidos a medida que las empresas privadas se apoderan cada vez más de nuestra infraestructura pública digital, lo que podría conducir a una captura política sin precedentes bajo el disfraz de “modernizar” los servicios públicos. Necesitamos con urgencia niveles adecuados de supervisión y revisión y el empoderamiento de los funcionarios electos, los responsables políticos y los ciudadanos.

https://www.brinknews.com/the-risks-of-using-ai-for-government-work/?

¿Qué tipo de robótica centrada en el ser humano necesitamos?

 “Hoy asistimos a una mayor robotización en todos los ámbitos de la sociedad, desde la fabricación hasta la tecnología de asistencia, desde la atención sanitaria a la educación. Estas áreas de aplicación requieren que los robots puedan interactuar con los humanos de una manera eficiente y socialmente aceptable «.

Ginevra Castellano continúa: “Al mismo tiempo, como todas las tecnologías, los robots pueden no solo traer beneficios, sino también cambiar nuestra forma de pensar y comportarnos. Esto requiere que los investigadores de interacción humano-robot diseñen y desarrollen inteligencia artificial y robótica más centrada en el ser humano y confiable, que coloque a los humanos en el centro y preserven la agencia y la autonomía humanas, donde los robots se adaptan a la forma en que los humanos se comunican en el mundo, en lugar de al revés.»

https://wasp-hs.org/news/what-kind-of-human-centric-robotics-do-we-need/

¿La IA está haciendo que las personas pierdan la sensación de logro?

 Hay mucha discusión sobre el desplazamiento de puestos de trabajo debido a la automatización basada en IA y la carga económica resultante. Pero qué pasa con los trabajos que no se pierden por completo, sin embargo, pierden su significado debido a la automatización. Estos eventos eventualmente conducen a una disminución del sentido de logro entre los trabajadores.

Un artículo reciente, publicado como parte del programa de investigación Ética de las tecnologías socialmente disruptivas en los Países Bajos, sostiene que el logro es una parte clave de lo que hace que el trabajo sea significativo y que los avances en IA y automatización dan lugar a una serie de « brechas de rendimiento » en el lugar de trabajo.

https://analyticsindiamag.com/is-ai-making-people-lose-a-sense-of-achievement/

"Rules as Code" permitirá que las computadoras apliquen leyes y regulaciones. Pero las interpretaciones demasiado rígidas socavarían nuestras libertades

 Las máquinas no pueden leer ni responder a las reglas que se expresan en el lenguaje humano. Para que las reglas sean legibles por máquina y procesables, la interpretación de las reglas también debe estar codificada. Determinar la mejor manera de codificar las leyes es importante a medida que nos adentramos en un futuro digital.

Décadas en la fabricación

La codificación de las normas legales no es completamente nueva. Durante las últimas cinco décadas, los investigadores en inteligencia artificial y derecho han producido una variedad de versiones codificadas formalmente de leyes tributarias y de otro tipo.

https://theconversation.com/rules-as-code-will-let-computers-apply-laws-and-regulations-but-over-rigid-interpretations-would-undermine-our-freedoms-149992

Un enfoque legal de los "algoritmos discriminación positiva"

Una rama separada de la jurisprudencia de acción afirmativa, vinculada a la contratación del gobierno, ha permitido durante mucho tiempo preferencias explícitas de raza y género. Las agencias federales, estatales y locales crean reservas reservadas y preferencias de licitación para los contratistas de propiedad de minorías, y esas preferencias han sido aprobadas legalmente porque las agencias podrían documentar sus propias historias de discriminación.

Ho dice que los defensores de la equidad bien podrían justificar las correcciones basadas en la raza o el género sobre la base de la discriminación pasada. Al igual que el sistema de Amazon, la mayoría de los modelos de inteligencia artificial se entrenan con datos históricos que pueden incorporar patrones pasados ​​de discriminación.

Lo que enfatiza la ley, dice Ho, es que la magnitud del ajuste debe seguir la evidencia de discriminación histórica. El precedente de contratación gubernamental permite una cuantificación explícita, lo que hace que el aprendizaje automático justo sea más factible.

Dicho de otra manera, dicen Ho y Xiang, la jurisprudencia del derecho contractual del gobierno puede ofrecer un escape de la trampa de la ceguera y un camino hacia la justicia a través de la conciencia.

https://hai.stanford.edu/blog/legal-approach-affirmative-algorithms

Cuando los algoritmos compiten, ¿quién gana?

 Con el tiempo, los algoritmos de predicción se especializan para una porción cada vez más estrecha de la población y la calidad media de sus predicciones disminuye.

Antes de comenzar su investigación, el equipo de Zou reconoció que existe una dinámica de retroalimentación en juego si los algoritmos de aprendizaje automático de las empresas compiten por usuarios o clientes y, al mismo tiempo, utilizan datos de clientes para entrenar su modelo. “Al ganar clientes, obtienen un nuevo conjunto de datos de esos clientes y, luego, al actualizar sus modelos en este nuevo conjunto de datos, en realidad cambian el modelo y lo orientan hacia los nuevos clientes que han ganado. terminado ”, dice Ginart.

El equipo se preguntó: ¿Cómo podría esa retroalimentación afectar la capacidad de los algoritmos para brindar recomendaciones de calidad? Para obtener una respuesta, analizaron matemáticamente la competencia algorítmica y la simularon utilizando algunos conjuntos de datos estándar. Al final, descubrieron que cuando los algoritmos de aprendizaje automático compiten, eventualmente (e inevitablemente) se especializan y mejoran en la predicción de las preferencias de una subpoblación de usuarios.

«No importa la cantidad de datos que tenga, siempre verá estos efectos», dice Zou. Además, «la disparidad se hace cada vez más grande con el tiempo, se amplifica debido a los bucles de retroalimentación».

https://hai.stanford.edu/blog/when-algorithms-compete-who-wins?utm_source=Stanford+HAI&utm_campaign=23fe453e9f-EMAIL_CAMPAIGN_2020_11_15&utm_medium=email&utm_term=0_aaf04f4a4b-23fe453e9f-63641443

QUÉ ES LA EMERGENCIA DIGITAL Y CÓMO AFRONTARLA

 La transformación digital interfiere en todos los niveles de nuestra vida: en nuestra esfera más personal con cambios en la comunicación o las relaciones afectivas, en nuestro entorno social y público, transformando la educación o el trabajo, e incluso a un nivel más intangible, influyendo en la privacidad de nuestros datos. La tecnología es fruto de décadas de investigación, ciencia y desarrollo para dar respuesta a las aspiraciones y necesidades de la humanidad. Pero, a su vez, las tecnologías emergentes nos muestran las dos caras de una moneda: contribuyen al progreso económico y social, fomentando el desarrollo y el bienestar humano, pero su uso genera desequilibrios y desigualdades a nivel global, incrementando las brechas entre aquellos colectivos más favorecidos y aquellos más vulnerables.

Por eso, hay que actuar, y hay que hacerlo ya. Estamos ante una emergencia digital, agudizada por la crisis de la COVID-19. Digital Future Society aborda los dilemas éticos, sociales y de impacto económico que plantea la disrupción tecnológica a fin de explorar, de la mano de expertos académicos, legisladores, representantes del sector tecnológico y de la sociedad civil, soluciones que nos orienten hacia un futuro más inclusivo, equitativo y sostenible. De forma prioritaria, debemos ser capaces de abordar al menos cinco retos trascendentales.

La disparidad en el acceso y en la utilización de las tecnologías de la información (TIC) acentúa las desigualdades socioeconómicas, creando nuevas formas de exclusión. Son las denominadas brechas digitales, que ya no solo deben considerar el tener o carecer de los recursos económicos suficientes para acceder a internet, sino que también deben atender a factores contextuales como las competencias y la comprensión digitales.

https://ethic.es/2020/11/que-es-la-emergencia-digital-y-como-afrontarla/

Mind the Gap: Informe final del Grupo de trabajo sobre igualdad

 Los gobiernos y las empresas utilizan cada vez más los algoritmos para tomar decisiones ‘automatizadas’ basadas en datos que pueden tener consecuencias de gran alcance con poca transparencia, escrutinio o responsabilidad. Aunque la apariencia superficial de objetividad de los algoritmos parece eliminar los sesgos en la toma de decisiones humana, los algoritmos siempre reflejan las suposiciones de quienes los diseñaron y los patrones en los datos en los que están entrenados.

Sin intervención ni supervisión, el estado natural de las tecnologías basadas en datos es replicar patrones pasados ​​de desigualdad estructural que están codificados en datos y proyectarlos hacia el futuro. Es vital que los responsables de la formulación de políticas comprendan esto. Para evitar este resultado, quienes usan algoritmos para tomar decisiones que afectan la vida de las personas, desde el nivel educativo hasta la contratación para pagar y los ascensos, deben tomar medidas activas y deliberadas para garantizar que los algoritmos promuevan la igualdad en lugar de afianzar la desigualdad.

Nuestro análisis muestra que el marco legal y el régimen regulatorio actuales no se han mantenido al día con los desarrollos recientes en lo que la tecnología es capaz de hacer, o con cómo se implementa de forma rutinaria. En particular, la legislación vigente en materia de igualdad y protección de datos es insuficiente para brindar protección y compensación a quienes se encuentran en desventaja por los supuestos incorporados en los algoritmos.

https://www.ifow.org/publications/mind-the-gap-the-final-report-of-the-equality-task-force

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Presentation Professor Luciano Floridi – Onlife and Being Human in a Hyperconnected Era: What Utopia?

¿Existe algo así como una utopía digital? ¿Pueden las tecnologías ayudarnos a hacer realidad nuestros ideales y propósitos? De todos modos, ¿qué significa «beneficio para un propósito»? En la Cumbre Ejecutiva Utopia for Beginners de Sogeti, estas preguntas fueron abordadas por algunos pensadores y visionarios muy aclamados. En el siguiente video, el profesor Luciano Floridi compartirá su visión sobre «Utopía para principiantes».
Luciano Floridi es profesor de Filosofía y Ética de la Información en la Universidad de Oxford. Floridi es uno de los asesores más influyentes de la Unión Europea en el campo de la ética de la información. También aconsejó a Google cómo abordar el nuevo derecho del olvido de los ciudadanos en Internet. Es el Director del Laboratorio de Ética Digital, una alianza entre la Universidad de Oxford y las empresas. El objetivo del laboratorio es “detectar e incrementar las oportunidades de la innovación digital al tiempo que se reducen los riesgos y se evitan las deficiencias”. Entre las empresas que apoyan al Lab se encuentran organizaciones como Tencent, Google, la Unión Europea, Microsoft y The Rockefeller Foundation. Nuestra propia organización, Sogeti, también figura en esta lista. Acerca del evento Utopía para principiantes Los eventos Utopía para principiantes se llevaron a cabo con el fin de discutir cuestiones y problemas urgentes en TI. Con 150 ejecutivos de TI, exploramos nuevas formas de innovar de manera decidida. El aporte provino de inspiradores discursos pronunciados por académicos, líderes de opinión y líderes empresariales y se utilizó en varias mesas redondas para aprender de pares en la misma y diferentes industrias. Durante las próximas semanas, compartiremos las sesiones más interesantes, que también se reflejan en nuestro informe «Utopía para ejecutivos», que puede descargar aquí.

https://labs.sogeti.com/presentation-professor-luciano-floridi-onlife-and-being-human-in-a-hyperconnected-era-what-utopia/

Crea tu sitio web con WordPress.com
Comenzar