Diseña un sitio como este con WordPress.com
Comenzar

Tres preguntas equivocadas sobre la confianza y la inteligencia artificial

 1. ¿Confía [el usuario] en la IA?

La cuestión de si alguien confía en la IA, o en qué medida, es de hecho completamente inútil. El tema de la confianza siempre tiene tres dimensiones: quién confía, en quién se confía y cuál es el objetivo de esta confianza. Por ejemplo: confío en que Amazon entregará mi pedido a la brevedad. Pero no confío en que Amazon utilice mis datos personales «éticamente», o que no los utilice indebidamente con fines de marketing y me analice utilizando medios «psicográficos» cuestionables.

Una mejor pregunta sería: ¿confía en este [producto basado en IA] para lograr el objetivo X?

2. ¿Cómo podemos [la empresa de tecnología] aumentar la confianza en la IA?

La gente de los departamentos de marketing y ventas estará clamando por descubrir cómo controlar, influir o manipular al consumidor para que la confianza en el producto X de IA y, a su vez, aumente la probabilidad de adopción. En este sentido, se necesita una demarcación clara y un cambio de enfoque: la confianza y la honradez son conceptos fundamentalmente diferentes. La confianza de los consumidores es una forma de pensar, mientras que la confiabilidad es una propiedad de los productos, procesos o una empresa. Las pautas para trabajar en estos aspectos están apareciendo en masa. Está claro que la confianza no se puede comprar; debe ganarse demostrando que es digno de confianza.

Una mejor pregunta sería: ¿cómo podemos ser dignos de confianza?

3. ¿Debemos [la empresa] confiar en la IA?

Nunca, como diría J. Bryson. Los programas basados ​​en IA no se tratan de confianza. El software debe ser confiable, es decir, construido de tal manera que sus desarrolladores puedan ser responsables. Esto significa que necesitamos saber y verificar de qué es capaz un sistema en particular y qué no. La confianza es irrelevante, como lo es con la contabilidad. Desde una perspectiva ética, la pregunta definitivamente está fuera de lugar.

Una mejor pregunta sería: ¿cómo podemos comprender mejor la IA?

https://digital-commerce.post.ch/en/pages/blog/2020/trust-in-artificial-intelligence

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Anuncio publicitario

Identidad digital y confianza: la Comisión lanza una consulta pública sobre el Reglamento eIDAS

 La Comisión ha lanzado una consulta pública sobre la revisión de las normas sobre identificación electrónica y servicios de confianza para transacciones electrónicas en el mercado interior, el Reglamento eIDAS.

https://ec.europa.eu/digital-single-market/en/news/digital-identity-and-trust-commission-launches-public-consultation-eidas-regulation

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

El objetivo no debería ser una IA Confiable

Pensamiento de Mariarosaria Taddeo.

 Uno de los principios que se incluyen con más frecuencia en las pautas éticas para la inteligencia artificial es la «IA confiable». Pero Taddeo dice que el término es un nombre inapropiado:

La confianza es una forma de delegar una tarea y dejar de controlar o supervisar la forma en que se realiza la tarea. Eso no es lo que queremos de la IA. Técnicamente hablando, la IA no es una tecnología de rubes, puede ser atacada y manipulada, sin que el usuario lo sepa.

Confiar y olvidarse de la IA es un enfoque peligroso. El uso de IA debe ir acompañado de formas de seguimiento y control del sistema. Más que una IA confiable, debemos desarrollar procesos para que la IA sea confiable.

Taddeo cree que los Principios de la OCDE sobre Inteligencia Artificial son muy buenos en este sentido, ya que se refieren a la necesidad de un seguimiento continuo de los sistemas. Esto puede garantizar que los sistemas de IA continúen comportándose como se espera durante su implementación.

https://thenextweb.com/neural/2020/09/28/our-goal-shouldnt-be-to-build-merely-trustworthy-ai/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Los algoritmos gubernamentales están socavando la democracia; abramos su diseño a la gente

Los algoritmos parecen estar en retroceso en el Reino Unido, por ahora. Los gobiernos nacionales no solo cambiaron recientemente su uso de algoritmos para asignar las calificaciones de los que abandonan la escuela, sino que numerosas autoridades locales también han eliminado tecnología similar utilizada para tomar decisiones sobre beneficios y otros servicios de bienestar. En muchos de estos casos, esto se debió a que se descubrió que los algoritmos conducían a resultados sesgados e injustos.

Pero, ¿por qué nadie se dio cuenta de que estos algoritmos producirían resultados tan dañinos antes de que salieran al mundo real haciendo un daño real? La respuesta puede ser que el público no esté adecuadamente representado en los procesos de desarrollo e implementación de nuevos sistemas. Esto no solo aumenta las posibilidades de que las cosas salgan mal, sino que también socava la confianza pública en el gobierno y su uso de datos, lo que limita las oportunidades para que los algoritmos se utilicen para el bien en el futuro.

A medida que los algoritmos se utilizan cada vez más en formas que cambian la forma en que las personas acceden a los servicios y restringen sus opciones de vida, existen riesgos de que estos nuevos sistemas opacos reduzcan la responsabilidad y alteren fundamentalmente las relaciones públicas con el gobierno. En esencia, esta es una amenaza para la democracia. 

https://theconversation.com/government-algorithms-are-undermining-democracy-lets-open-up-their-design-to-the-people-145515

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

¿Debería ser el objetivo una mayor confianza pública en los sistemas basados en datos?

 A menudo se asume que la confianza es una emoción positiva. El sociólogo de la confianza Piotr Sztompka sostiene [13] que la confianza es una orientación hacia el futuro, que nos permite actuar. Al escribir sobre la confianza como una estrategia para lidiar con las ansiedades por los datos, Sarah Pink y sus colegas coinciden, [14] argumentando que la confianza en los datos es un sentimiento que permite a las personas seguir adelante y tomar medidas. Sin embargo, asumir que la confianza es positiva y, por lo tanto, deseable puede deslegitimar la desconfianza «moralmente adecuada» de algunos grupos y afianzar aún más las desigualdades que muchos de nosotros desearíamos desafiar. Ver la confianza como un privilegio del que disfrutan los grupos mayoritarios puede ayudarnos a resistir la tentación de creer que nuestra meta debe ser más confianza.

https://www.adalovelaceinstitute.org/should-more-public-trust-in-data-driven-systems-be-the-goal/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

¿Confianza en una crisis? Generar confianza pública en una aplicación de rastreo de contactos

Los cuatro fuertes consejos de este mini público sobre cómo construir tecnologías COVID-19 con legitimidad siguen siendo pertinentes para las preocupaciones actuales.

  1. Proporcionar al público una base de pruebas transparente. Falta de transparencia particularmente la información limitada sobre el primer juicio de la Isla de Wight, generó sospecha y desconfianza. Al público le gustaría verlo claro y accesible evidencia sobre si las tecnologías son efectivas y bajo qué condiciones. La gente quiere tener confianza en que se salvarán vidas y espera información fácilmente accesible sobre aspectos como el contexto de la salud en evolución o relaciones con proveedores comerciales
  2. Ofrezca evaluación y revisión independientes de la tecnología. los La cuestión de quién está emitiendo juicios es importante para el público, y la confianza en los tomadores de decisiones puede ser frágil. La confianza se puede fortalecer con la inclusión de revisores, evaluadores y evaluadores independientes para dar forma al desarrollo de la tecnología.
  3. Aclare los límites sobre el uso de datos, derechos y responsabilidades. Falto La supervisión independiente no niega el deseo de claridad sobre los derechos de datos de los usuarios. Debe ser fácil saber y justificar claramente qué datos se conservarían, quién lo haría, con qué propósito y por cuánto tiempo.
  4. Abordar de manera proactiva las necesidades y los riesgos relacionados con los grupos vulnerables. Se debe incorporar soporte para personas que puedan tener vulnerabilidades adicionales o volverse vulnerable como resultado de la pandemia. Una salud pública la tecnología debe permitir el acceso equitativo y la distribución equitativa de los beneficios; protegerse contra la vigilancia o la elaboración de perfiles de diferentes grupos demográficos; y garantizar que las nuevas herramientas como los certificados de inmunidad no se conviertan en una puerta de entrada a los privilegios.

https://www.adalovelaceinstitute.org/our-work/covid-19/confidence-in-a-crisis/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Uso de datos para el bien público: los roles de una gobernanza clara, buenos datos e instituciones confiables

Las leyes de protección de datos están diseñadas para proteger a las personas y evitar el mal uso de la información personal. Esto es esencial Pero al mismo tiempo, también necesitamos formas de garantizar que los datos se compartan para el bien público a una escala mucho mayor de lo que está sucediendo actualmente. El acceso a los datos será invaluable cuando se aborden algunos de los desafíos sociales más grandes, ya sean datos sobre la propagación de pandemias, datos sobre los prejuicios en la toma de decisiones institucionales, datos sobre el uso de energía o datos sobre la difusión de información y desinformación. 

https://royalsociety.org/blog/2020/07/using-data-for-the-public-good/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.