Hacia una teoría de la justicia para la inteligencia artificial

https://arxiv.org/abs/2110.14419#

Este artículo explora la relación entre la inteligencia artificial y los principios de justicia distributiva. Basándose en la filosofía política de John Rawls, sostiene que la estructura básica de la sociedad debe entenderse como un compuesto de sistemas sociotécnicos, y que el funcionamiento de estos sistemas está cada vez más moldeado e influenciado por la IA. En consecuencia, las normas igualitarias de justicia se aplican a la tecnología cuando se despliega en estos contextos. Estas normas implican que los sistemas de IA pertinentes deben cumplir una determinada norma de justificación pública, apoyar los derechos de los ciudadanos y promover resultados sustancialmente justos, algo que requiere que se preste especial atención al impacto que tienen en los miembros más desfavorecidos de la sociedad.

Pasar del compromiso al contenido en la IA y la ética de los datos: Justicia y explicabilidad

https://www.atlanticcouncil.org/in-depth-research-reports/report/specifying-normative-content/Los investigadores, las empresas, los responsables políticos y el público en general son conscientes de que el uso de la inteligencia artificial (IA) y de los macrodatos plantea problemas de justicia, privacidad, autonomía, transparencia y responsabilidad. Se espera que las organizaciones aborden cada vez más estas y otras cuestiones éticas. En respuesta, muchas empresas, organizaciones no gubernamentales y entidades gubernamentales han adoptado marcos y principios de ética de la IA o de los datos con el fin de demostrar el compromiso de abordar los retos que plantea la IA y, sobre todo, orientar los esfuerzos de las organizaciones para desarrollar e implementar la IA de forma social y éticamente responsable.
Sin embargo, articular los valores, los conceptos éticos y los principios generales es sólo el primer paso -y en muchos sentidos el más fácil- para abordar los retos de la IA y la ética de los datos. El trabajo más difícil es pasar de los valores, los conceptos y los principios a compromisos sustantivos y prácticos que orienten la acción y sean medibles. Sin esto, la adopción de compromisos y principios amplios equivale a poco más que tópicos y «lavado de ética». El desarrollo y el uso éticamente problemático de la IA y los macrodatos continuará, y los responsables políticos, los empleados, los consumidores, los clientes y el público considerarán que la industria no cumple con sus propios compromisos.
El siguiente paso para pasar de los principios generales a los impactos es articular de forma clara y concreta lo que la justicia, la privacidad, la autonomía, la transparencia y la explicabilidad implican y requieren realmente en contextos particulares. Los principales objetivos de este informe son
Demostrar la importancia y la complejidad de pasar de los conceptos y principios éticos generales al contenido sustantivo que orienta la acción;proporcionar un análisis detallado de dos conceptos éticos fundamentales e interconectados, la justicia y la transparencia; eindicar estrategias para pasar de los conceptos y principios éticos generales a contenidos sustantivos más específicos y, en última instancia, a la puesta en práctica de dichos conceptos.
*** Translated with http://www.DeepL.com/Translator (free version) ***

Actores públicos sin valores públicos: legitimidad, dominación y regulación del sector tecnológico

La escala y la asimetría del poder de las empresas de tecnología comercial sobre las personas a través de los datos, combinada con la creciente participación del sector privado en la gobernanza pública, significa que cada vez más, las personas no tienen la capacidad de optar por no participar en las empresas de tecnología. Al mismo tiempo, esas empresas están interviniendo cada vez más a nivel de la población de formas que tienen implicaciones para la vida social y política. Esto crea el potencial para las relaciones de poder de dominación y exige que decidamos qué constituye la legitimidad para actuar sobre el público. La ética empresarial y el derecho privado no están diseñados para responder a estas preguntas, que son principalmente políticas. Si las personas han perdido el derecho a desvincularse de las tecnologías comerciales, es posible que debamos hacer que las empresas que las ofrecen cumplan con los mismos estándares que exigimos al sector público. Este artículo primero define el problema y demuestra que es significativo y generalizado, y luego aboga por el desarrollo de un marco normativo global para lo que constituye la no dominación con respecto a las tecnologías digitales. Dicho marco debe incluir una idea matizada de poder político y responsabilidad que pueda responder no solo a la legalidad del comportamiento empresarial, sino a su legitimidad.

https://link.springer.com/article/10.1007/s13347-020-00441-4

"Rules as Code" permitirá que las computadoras apliquen leyes y regulaciones. Pero las interpretaciones demasiado rígidas socavarían nuestras libertades

 Las máquinas no pueden leer ni responder a las reglas que se expresan en el lenguaje humano. Para que las reglas sean legibles por máquina y procesables, la interpretación de las reglas también debe estar codificada. Determinar la mejor manera de codificar las leyes es importante a medida que nos adentramos en un futuro digital.

Décadas en la fabricación

La codificación de las normas legales no es completamente nueva. Durante las últimas cinco décadas, los investigadores en inteligencia artificial y derecho han producido una variedad de versiones codificadas formalmente de leyes tributarias y de otro tipo.

https://theconversation.com/rules-as-code-will-let-computers-apply-laws-and-regulations-but-over-rigid-interpretations-would-undermine-our-freedoms-149992

Cómo la tecnología cambiará la justicia

 Conversación sobre el futuro de la justicia en torno al libro. Tribunales en línea y el futuro de la justicia

https://legaltalknetwork.com/podcasts/law-technology-now/2020/01/richard-susskind-how-technology-will-change-justice/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Crea tu sitio web con WordPress.com
Comenzar