Auditoría ética de los sistemas automatizados de toma de decisiones: Naturaleza, alcance y limitaciones

https://link.springer.com/article/10.1007/s11948-021-00319-4

Cada vez se automatizan más las decisiones importantes que afectan a la vida de las personas, a sus medios de subsistencia y al entorno natural. La delegación de tareas en los llamados sistemas automatizados de toma de decisiones puede mejorar la eficiencia y permitir nuevas soluciones. Sin embargo, estos beneficios van acompañados de retos éticos. Por ejemplo, los ADMS pueden producir resultados discriminatorios, violar la privacidad individual y socavar la autodeterminación humana. Por lo tanto, se necesitan nuevos mecanismos de gobernanza que ayuden a las organizaciones a diseñar y desplegar los ADMS de forma ética, permitiendo al mismo tiempo que la sociedad aproveche todos los beneficios económicos y sociales de la automatización. En este artículo examinamos la viabilidad y la eficacia de la auditoría basada en la ética (ABE) como mecanismo de gobernanza que permite a las organizaciones validar las afirmaciones hechas sobre sus ADMS. Basándonos en trabajos anteriores, definimos la ABE como un proceso estructurado mediante el cual se evalúa el comportamiento presente o pasado de una entidad para comprobar su coherencia con los principios o normas pertinentes. A continuación, ofrecemos tres contribuciones a la literatura existente. En primer lugar, ofrecemos una explicación teórica de cómo la ABE puede contribuir a la buena gobernanza promoviendo la regularidad y la transparencia de los procedimientos. En segundo lugar, proponemos siete criterios para diseñar y aplicar con éxito los procedimientos de la ABE. En tercer lugar, identificamos y discutimos las limitaciones conceptuales, técnicas, sociales, económicas, organizativas e institucionales asociadas a la ABE. Llegamos a la conclusión de que la ABE debe considerarse un componente integral de los enfoques multifacéticos de la gestión de los riesgos éticos que plantean las ADMS.

Desacuerdos en las calificaciones de ESG: ¿por qué la virtud corporativa es tan subjetiva?

https://www.unpri.org/pri-blog/esg-rating-disagreements-why-is-corporate-virtue-so-subjective/7633.article

Las agencias de calificación discrepan sustancialmente sobre cómo evalúan a las empresas individuales, a pesar del uso creciente de calificaciones ambientales, sociales y de gobierno (ESG). Esto es muy problemático porque sin un acuerdo sobre lo que constituye un buen desempeño ASG, los participantes del mercado pueden ser engañados por estas calificaciones. También tenemos muy poca evidencia sobre por qué los proveedores de datos están tan en desacuerdo, lo que dificulta la comprensión de las posibles consecuencias y soluciones.

En nuestro documento, abordamos esto centrándonos en el alcance de la divulgación de ESG de una empresa, que creemos que probablemente sea importante para hacer que los proveedores no estén de acuerdo con las calificaciones de ESG. Contrariamente a la evidencia de que la divulgación reduce el desacuerdo en otros entornos, encontramos lo contrario cuando se trata de cuestiones de ESG, y que si bien las agencias de calificación de ESG tienen un papel que desempeñar como intermediarias de información, la falta de consenso sobre cómo interpretar los resultados de El buen o mal desempeño de ESG disminuye la función de responsabilidad corporativa que las calificaciones podrían desempeñar.

Desafiando la teoría

Los teóricos argumentan que el desacuerdo surge debido a que las personas tienen diferentes conjuntos de información y / o diferentes interpretaciones de la información. La sabiduría convencional y una gran cantidad de evidencia sugieren que una mayor divulgación ayuda a reducir el desacuerdo al reducir las diferencias en la información que tienen las personas. Argumentamos que debido a la naturaleza subjetiva de la información ESG, lo contrario sería cierto, ya que la divulgación amplía las oportunidades para diferentes interpretaciones de la información.

Para las empresas con niveles más altos de divulgación de ESG, los proveedores de datos deben juzgar si la divulgación constituye un buen o mal desempeño. Por ejemplo, una empresa que divulga las tasas de lesiones con tiempo perdido debe ser juzgada en función de esta divulgación. Esto da lugar a un nivel de subjetividad que conduce a mayores niveles de desacuerdo.

La auditoría de IA es la próxima gran novedad. Pero, ¿garantizará algoritmos éticos?

Desde sistemas de reclutamiento discriminatorios hasta chat bots racistas, las trampas éticas de la inteligencia artificial están bien documentadas. Con el espectro de la regulación de la IA que se avecina, las empresas se apresuran a comprender las implicaciones morales de los algoritmos.

Para satisfacer esta necesidad, surge la incipiente industria de auditoría de IA. Pero la falta de un marco ético universal de IA ha llevado a enfoques fortuitos y temores de que las auditorías no solo no detecten el sesgo, sino que legitimen las tecnologías dañinas.

“En 2018, hubo una explosión en el interés por la ética digital como resultado del escándalo de Cambridge Analytica”, dice Emre Kazim, investigador de UCL y cofundador de la empresa de auditoría y aseguramiento Holistic AI. “En ese momento, los ingenieros se interesaron más en contratar personas de diferentes disciplinas: sociología, antropología, derecho. Hice mi doctorado en filosofía y comencé a trabajar con ingenieros que en realidad estaban construyendo estos sistemas «.

Kazim dice que ha evolucionado un enfoque bifurcado para la auditoría de IA. En un extremo, está la consultoría ligera, en la que las empresas buscan una orientación de nivel relativamente alto, una estrategia ética o un impulso de reputación. En el otro extremo, hay una auditoría forense, donde un auditor investigará los datos y algoritmos de una empresa. “A veces entramos y damos una presentación y decimos, ‘tal vez piense en estos problemas’ y ‘aquí hay una buena práctica’”, dice Kazim. «En otros contextos, podemos entrar y hacer una inmersión profunda».

Auditoría basada en la ética para desarrollar una inteligencia artificial confiable

https://link.springer.com/article/10.1007/s11023-021-09557-8

Una serie de desarrollos recientes apunta a la auditoría como un mecanismo prometedor para cerrar la brecha entre los principios y la práctica en la ética de la IA. Sobre la base de los debates en curso sobre la auditoría basada en la ética, ofrecemos tres contribuciones. Primero, argumentamos que la auditoría basada en la ética puede mejorar la calidad de la toma de decisiones, aumentar la satisfacción del usuario, desbloquear el potencial de crecimiento, permitir la elaboración de leyes y aliviar el sufrimiento humano. En segundo lugar, destacamos las mejores prácticas actuales para respaldar el diseño y la implementación de la auditoría basada en la ética: para ser factible y eficaz, la auditoría basada en la ética debe tomar la forma de un proceso continuo y constructivo, abordar la alineación ética desde una perspectiva del sistema y ser alineados con políticas públicas e incentivos para conductas éticamente deseables. En tercer lugar, identificamos y discutimos las limitaciones asociadas con la auditoría basada en la ética. Solo entendiendo y teniendo en cuenta estas limitaciones, la auditoría basada en la ética puede facilitar la alineación ética de la IA, al tiempo que permite a la sociedad cosechar todos los beneficios económicos y sociales de la automatización.

¿Puede la auditoría eliminar el sesgo de los algoritmos?

https://themarkup.org/ask-the-markup/2021/02/23/can-auditing-eliminate-bias-from-algorithms

La auditoría algorítmica recibió mucha prensa recientemente cuando HireVue, una popular compañía de software de contratación utilizada por compañías como Walmart y Goldman Sachs, enfrentó críticas porque los algoritmos que usaba para evaluar a los candidatos a través de entrevistas en video estaban sesgados.

HireVue llamó a una firma de auditoría para que le ayudara y en enero promocionó los resultados de la auditoría en un comunicado de prensa.

La auditoría encontró que las predicciones del software «funcionan como se anuncian con respecto a cuestiones de equidad y sesgo», dijo HireVue en un comunicado de prensa, citando a la firma de auditoría que contrató, O’Neil Risk Consulting & Algorithmic Auditing (ORCAA).

Pero a pesar de realizar cambios en su proceso, incluida la eliminación del video de sus entrevistas, HireVue fue ampliamente acusado de usar la auditoría, que analizaba de manera estricta una prueba de contratación para los primeros candidatos de carrera, no el proceso de evaluación de candidatos de HireVue en su conjunto, como un truco de relaciones públicas.

Los artículos en Fast Company, VentureBeat y MIT Technology Review criticaron a la empresa por caracterizar erróneamente la auditoría.

HireVue dijo que fue transparente con la auditoría al poner el informe a disposición del público y agregó que el comunicado de prensa especificaba que la auditoría era solo para un escenario específico.

«Si bien HireVue estaba abierto a cualquier tipo de auditoría, incluida una que implicaba observar nuestro proceso en general, ORCAA pidió centrarse en un caso de uso único para permitir discusiones concretas sobre el sistema», dijo Lindsey Zuloaga, científica de datos en jefe de HireVue, en un correo electrónico. «Trabajamos con ORCAA para elegir un caso de uso representativo con una superposición sustancial con las evaluaciones por las que pasan la mayoría de los candidatos de HireVue».

Pero los auditores algorítmicos también estaban disgustados con las declaraciones públicas de HireVue sobre la auditoría.

«Al reutilizar el análisis muy cuidadoso de [ORCAA] en material de marketing, están socavando la legitimidad de todo el campo», dijo Liz O’Sullivan, cofundadora de Arthur, una startup de monitoreo de sesgos y explicabilidad de IA.

Y ese es el problema con la auditoría algorítmica como herramienta para eliminar sesgos: las empresas pueden usarlos para realizar mejoras reales, pero es posible que no. Y no existen normas o reglamentos de la industria que exijan cuentas a los auditores o las empresas que los utilizan.

Cómo crear un espacio para la ética en la IA

Para crear un espacio para la investigación ética ahora, tanto dentro como fuera del sector tecnológico, no podemos esperar a la gran regulación tecnológica. Debemos comprender mejor la cultura de las empresas de tecnología, impulsar la protección de los denunciantes de irregularidades para los investigadores de ética, ayudar a mejorar las habilidades de los reguladores, desarrollar requisitos de documentación y transparencia, y realizar auditorías e inspecciones regulatorias. Y debe haber un ajuste de cuentas en toda la industria cuando se trata de abordar el racismo sistémico y las prácticas laborales extractivas. Sólo entonces se empoderará a las personas que construyen tecnologías para orientar su trabajo hacia el bien social.

https://venturebeat.com/2020/12/19/how-to-create-space-for-ethics-in-ai/

Establecer sistemas, poderes y capacidades para analizar los algoritmos y su impacto

 La sesión informativa está dirigida principalmente a los responsables de la formulación de políticas y presenta los conocimientos de un taller de expertos junto con nuestras recomendaciones correspondientes, con un enfoque en el Reino Unido y la Unión Europea. También debería ser útil para los reguladores y las empresas de tecnología que estén pensando en métodos, habilidades y capacidad para inspeccionar sistemas algorítmicos.

https://www.adalovelaceinstitute.org/algorithms-in-social-media-realistic-routes-to-regulatory-inspection/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Los algoritmos están en todas partes. ¿Cómo luchamos contra su sesgo?

 La auditoría algorítmica es solo una herramienta en este impulso social más amplio para garantizar que las tecnologías emergentes con las que interactuamos sean seguras, justas y se utilicen de manera responsable. En algunos casos, ninguna cantidad de auditoría puede compensar los peligros.

https://www.morningbrew.com/emerging-tech/stories/2020/10/30/algorithms-everywhere-fighting-bias?__cf_chl_jschl_tk__=3e36b0e2c8883cc0a2e5f084df19ae87536760a6-1604317763-0-AaYTnaAygYLlD6QctlVubYl4IB5eD3eq1KWwILmrqvrOI3dpM65OlJlk9yA0l1lTRVmUf021tSVgguMJt5CvPB28q3BMfNe3z9k1RvuKGEPLk9482AS2tN7b6r6t6_IwLleDJb_UL9RMMavFFK2TtEokCxewgwNIcY_wOAQvVVazly8jRE-KdfoZYkEds2bRmJajXl5RBu26GTg_eZ5wOHk4uw2eEgbGbOGafaZ958KCbE8aRx6C3D4GKiH91OW1h7V5lT0-K5Z9_eUOpCBx_ArQ5NXm0BifZx0H_V3Etf6fjzAMH1firUjEVEuTowMW6YuxmhaEVxvi0_UxvivGINok9vI-jtnglDpHooC3HKBolc9gQVyPJ3TuS0wN_jIxwhUw_wwkOmipjB3iw68MJslL7xWnXrwZe9x3n_HkDHCn

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Crea tu sitio web con WordPress.com
Comenzar