Medir la confianza en la Inteligencia Artificial (IA)

Los investigadores han descubierto que la confianza del público en la IA varía mucho de una aplicación a otra.

Investigadores de la Universidad de Tokio han estudiado las actitudes del público en general hacia la ética de la IA, impulsados por la creciente atención que la inteligencia artificial (IA) suscita en la sociedad. Sus hallazgos cuantifican cómo afectan a estas actitudes los diferentes escenarios demográficos y éticos. Como parte de esta investigación, el equipo desarrolló un indicador visual octogonal similar al sistema de calificación. Esto puede ser útil para los investigadores de IA que quieran saber cómo percibe su trabajo el público en general.

Muchos consideran que el rápido desarrollo de la tecnología suele superar el desarrollo de las estructuras sociales que la guían y regulan implícitamente, como el derecho y la ética. La IA, en particular, lo demuestra porque de la noche a la mañana impregna la vida cotidiana de muchas personas. Este auge, unido a la relativa complejidad de la IA en comparación con tecnologías más conocidas, puede crear miedo y desconfianza hacia este importante elemento de la vida moderna. ¿Quién desconfía de la IA y cuáles son las cuestiones que conviene conocer para los desarrolladores y reguladores de la tecnología de IA? Sin embargo, no es fácil cuantificar este tipo de cuestiones.

Gráfico del octógono de la IA

Un gráfico de ejemplo que muestra las valoraciones de los encuestados sobre ocho temas para cada uno de los cuatro escenarios éticos en diferentes aplicaciones de la IA. Crédito: © 2021 Yokoyama et al.

Investigadores de la Universidad de Tokio, dirigidos por el profesor Hiromi Yokoyama, del Instituto Kavli de Física y Matemáticas del Universo, se han propuesto cuantificar la actitud del público hacia las cuestiones éticas que rodean a la IA. En concreto, a través del análisis de la encuesta, se plantearon dos cuestiones: cómo cambiaban las actitudes en función del escenario presentado a los encuestados, y cómo cambiaban sus actitudes los propios datos demográficos de los encuestados.

Dado que la ética no puede cuantificarse realmente, el equipo adoptó ocho temas comunes a muchas aplicaciones de IA que planteaban cuestiones éticas para medir la actitud de la IA hacia la ética. Privacidad, responsabilidad, seguridad y protección, transparencia y responsabilidad, equidad e indiscriminación, gestión de la tecnología humana, responsabilidad profesional y promoción del valor humano. Estas, que el grupo llama «mediciones octogonales», se inspiraron en un documento de 2020 de la investigadora de Harvard Jessica Fierdo y su equipo.

¿Confías en la IA? La inteligencia artificial y por qué la confianza juega un papel clave en el manejo de las nuevas tecnologías

https://link.springer.com/chapter/10.1007/978-3-662-63117-1_16

¿Sin confianza, no hay utilidad? La confianza se propaga a menudo como un factor crítico de éxito cuando se trata del uso de nuevas tecnologías, especialmente cuando se trata de sistemas inteligentes, la llamada IA (inteligencia artificial). De hecho, cada vez están más presentes en la sociedad actual, tanto en el ámbito privado (por ejemplo, comprando con Alexa, el altavoz inteligente basado en IA de Amazon) como en el profesional o en el educativo (por ejemplo, sistemas inteligentes diseñados para apoyar los procesos de selección de personal o de aprendizaje). El uso de tecnologías inteligentes y ubicuas aumenta la incertidumbre y el escepticismo, especialmente entre los usuarios finales sin conocimientos técnicos, e intensifica el campo de tensión entre los seres humanos, las máquinas y la sociedad. La cuestión de la confianza se pone en el punto de mira. ¿Es la confianza del consumidor la solución para explotar plenamente el alabado potencial de la inteligencia artificial? No es tan sencillo. Las ambigüedades en las definiciones, el uso del lenguaje y los métodos de medición diluyen la comprensión en torno a las conexiones entre la confianza y la utilidad. No está claro en todas las disciplinas si el uso de las nuevas tecnologías, especialmente de la IA, está realmente asociado a la confianza, con qué propósito, y la confianza en quién: los creadores? ¿Los diseñadores? ¿Cómo se puede delimitar la confianza y el uso? Este documento pretende desmitificar las historias y afirmaciones curiosas en torno a la IA y la confianza para, en última instancia, llevar la inteligencia artificial a la práctica de forma más eficaz. Esto requiere un discurso transdisciplinario y, sobre todo, orientado a los destinatarios, sobre lo que son los sistemas inteligentes, y un debate diferenciado sobre el papel que podría desempeñar la confianza en ellos. Al fin y al cabo, también están los escépticos de la confianza que argumentan con vehemencia que la confianza no juega ningún papel en el contexto de la IA. Sostenemos que la confianza -especialmente en el contexto del usuario final- es una variable importante que influye significativamente no sólo en la adopción, sino también en la forma de utilizar los sistemas basados en la IA. Mediante ejemplos prácticos, pretendemos demostrar que un nivel de confianza adecuadamente calibrado no sólo conduce a un uso más eficiente, seguro y sinérgico de los sistemas basados en la IA o automatizados, sino que puede incluso salvar vidas.

El impacto de las explicaciones en la confianza de los profanos en las aplicaciones de comprobación de síntomas basadas en la inteligencia artificial: Estudio experimental

https://www.jmir.org/2021/11/e29386/

Dependiendo del grupo de tratamiento, se generaron dos o tres variables que reflejaban el conocimiento previo y el modelo mental posterior que tenían los participantes. Al variar el tipo de explicación según la enfermedad, la migraña resultó no significativa (P=0,65) y la arteritis temporal, marginalmente significativa (P=0,09). Al variar la enfermedad según el tipo de explicación se obtuvo significación estadística para la influencia de la entrada (P=0,001), la prueba social (P=0,049) y la ausencia de explicación (P=0,006), con una explicación contrafactual (P=0,053). Los resultados sugieren que la confianza en las explicaciones se ve significativamente afectada por la enfermedad que se explica. Cuando los profanos tienen conocimientos sobre una enfermedad, las explicaciones tienen poco impacto en la confianza. Cuando la necesidad de información es mayor, los distintos tipos de explicaciones generan niveles de confianza significativamente diferentes. Estos resultados indican que, para tener éxito, los comprobadores de síntomas deben adaptar las explicaciones a la pregunta específica de cada usuario y descartar las enfermedades que éste pueda conocer.

Permitir que el usuario final actúe y confíe en los sistemas de inteligencia artificial

Los sistemas complejos de inteligencia artificial (SIA) se abren paso cada vez más en los contextos de consumo. Los usuarios de a pie, sin experiencia en el sector, se introducen en estos sistemas con distintos grados de transparencia y comprensión de la tecnología. Además, la mayoría no tiene claro cómo la interacción con estos sistemas puede afectar a sus vidas, tanto de forma positiva como negativa. 

En un mundo ideal, imaginamos que podemos aprovechar las ventajas de los SIA y, al mismo tiempo, mitigar sus riesgos. Por eso se creó el Comité de Confianza y Agencia del IEEE (creado como comité de la Iniciativa Global del IEEE sobre Ética de los Sistemas Autónomos e Inteligentes). A medida que navegamos por la fase de innovación transitoria de los SIA, la comprensión y el debate crítico sobre el papel y la interacción de la confianza y la agencia del usuario final, junto con la agencia de la máquina, desempeñarán un papel clave para garantizar que utilicemos estos complejos sistemas de forma eficaz, sostenible y segura.

Cuatro cuestiones clave sobre la confianza y la agencia

La confianza y la agencia en el contexto de la tecnología se discuten en varios campos, pero parece haber poco acuerdo sobre las definiciones y los métodos utilizados en la investigación y la práctica de la confianza, así como sobre las interpretaciones de la confianza y la fiabilidad, por no mencionar las diferencias individuales entre los «buscadores de confianza» y los «escépticos de la confianza». 

Como punto de partida para lograr claridad y orientación, invitamos a los miembros del Comité de Confianza y Agencia del IEEE a compartir sus puntos de vista sobre la confianza y la agencia desde sus propias perspectivas y trabajos. Los miembros de nuestro comité proceden de distintas partes del mundo y tienen diferentes trayectorias profesionales. Hemos formulado cuatro preguntas junto con sus biografías para que podamos entender sus puntos de vista en el contexto de sus respectivas perspectivas. El documento completo se publicará a finales de año, pero he aquí un breve resumen de lo que han dicho los autores hasta ahora:

Pregunta 1: ¿Por qué cree que es tan difícil definir la «confianza» para la IA hoy en día?

Dado que todo el mundo habla de confianza en estos días y que el «lavado de confianza» es ya una cosa, queríamos saber en qué consiste la confianza, para profundizar un poco más en por qué se debate tanto. En nuestras reuniones del comité, exploramos los componentes de la confianza, discutiendo que la confianza es una actitud, que la confianza está dirigida a un objetivo, y el papel de la vulnerabilidad a la traición. A menudo, estas discusiones conducen a debates sobre la fiabilidad. 

La fiabilidad es distinta de la confianza, ya que se refiere a los atributos de la fiabilidad de la máquina en función de los atributos basados en el rendimiento (es decir, lo bueno que es el producto), las características del proceso (es decir, lo comprensible que es el sistema para un operador) y la benevolencia, que es un atributo basado en el propósito que se refiere a la intención de los diseñadores o se pregunta por qué se construyó un sistema. Como verás, las respuestas de nuestros expertos son diversas y cada una puede contribuir a una mejor comprensión global de estas cuestiones. 

¿Y usted? ¿Qué le viene a la mente cuando piensa en la confianza? ¿Confianza en los seres humanos? ¿Confianza en las máquinas? ¿Tiene alguna perspectiva que no hayamos visto en las respuestas siguientes?

Háganos saber su opinión enviando un correo electrónico a marisa.tschopp@scip.ch.

Pregunta 2: ¿Por qué cree que es tan difícil definir la «agencia» para la IA hoy en día?

Los investigadores, los profesionales y los expertos en ética debaten apasionadamente sobre este tema, y no se suele «flamear» cuando se habla de la confianza en la interacción entre el ser humano y la IA. Tal vez no exista, tal vez la confianza esté mal planteada, tal vez todo sea antropomorfismo, no lo sabemos. Sin embargo, confiar en una máquina significa darle agencia y renunciar a parte de nuestra propia agencia humana. ¿Cuándo y cómo tenemos «derecho de veto» cuando una máquina toma decisiones? 

Nuestra teoría y esperanza es que habilitar la agencia del usuario como medio de control podría ser una forma de abordar esta cuestión. Por eso nuestro comité decidió centrarse en la agencia en lugar de limitarse al «tema candente» de la confianza. Al leer las respuestas a esta pregunta, se observa una interpretación aún más amplia de la noción de agencia en el contexto de la IA. Algunos hablan más de la agencia de las máquinas técnicas, mientras que otros se centran más en la agencia de los humanos, y otros en la tensión entre ambas. 

¿Cuál es su opinión inicial? ¿Asocian la «agencia» con el poder de las máquinas o con el poder de los humanos? 

Háganos saber su opinión enviando un correo electrónico a marisa.tschopp@scip.ch.

Pregunta 3: ¿Cuáles son las mayores necesidades o desafíos para las empresas y los responsables políticos en torno a la definición de «confianza» y «agencia» para la IA y por qué?

La mayoría de la gente nunca entenderá cómo funciona la Inteligencia Artificial. Sin embargo, algunos expertos sí entienden el SIA y se les puede pedir ayuda y consejo. Además, cada vez hay más leyes que protegen a los usuarios de los aspectos negativos de la SIA, como la legislación que garantiza aspectos de la privacidad de los datos. Aunque es poco práctico e imposible educar a todo el mundo en los detalles de los SIA, podemos esforzarnos por proporcionar una mayor alfabetización sobre los fundamentos y la mecánica de los SIA para que pueda fomentar un uso informado en lugar de una confianza ciega.

Hay consenso en que los humanos «deberían» tener el poder

*** Translated with http://www.DeepL.com/Translator (free version) ***

IA veraz: desarrollar y gobernar una IA que no mienta

https://www.lesswrong.com/posts/aBixCPqSnTsPsTJBQ/truthful-ai-developing-and-governing-ai-that-does-not-lie

En muchos contextos, la mentira -el uso de falsedades verbales para engañar- es perjudicial. Aunque la mentira ha sido tradicionalmente un asunto humano, los sistemas de IA que hacen declaraciones verbales sofisticadas son cada vez más frecuentes. Esto plantea la cuestión de cómo deberíamos limitar el daño causado por las «mentiras» de la IA (es decir, las falsedades que se seleccionan activamente). La veracidad humana se rige por las normas sociales y por las leyes (contra la difamación, el perjurio y el fraude). Las diferencias entre la IA y los seres humanos ofrecen la posibilidad de establecer normas de veracidad más precisas para la IA y de que estas normas aumenten con el tiempo. Esto podría aportar importantes beneficios a la episteme pública y a la economía, y mitigar los riesgos de los peores casos de IA. 

El establecimiento de normas o leyes sobre la veracidad de la IA requerirá un trabajo importante para

Identificar normas claras de veracidad;

crear instituciones que puedan juzgar el cumplimiento de esas normas; y

desarrollar sistemas de IA que sean robustamente veraces.

Nuestras propuestas iniciales para estas áreas incluyen

una norma para evitar las «falsedades negligentes» (una generalización de las mentiras que es más fácil de evaluar);

instituciones que evalúen los sistemas de IA antes y después de su implantación en el mundo real

entrenar explícitamente a los sistemas de IA para que sean veraces mediante conjuntos de datos curados y la interacción humana.

Una posibilidad preocupante es que los mecanismos de evaluación de eventuales normas de veracidad sean capturados por intereses políticos, lo que llevaría a una censura y propaganda perjudiciales. Para evitarlo, habrá que prestar mucha atención. Y dado que la escala de los actos de habla de la IA podría crecer drásticamente en las próximas décadas, las primeras normas de veracidad podrían ser especialmente importantes debido a los precedentes que sientan.

¿POR QUÉ LAS EMPRESAS TIENEN PROBLEMAS CON LA INTELIGENCIA ARTIFICIAL ÉTICA?

https://news.northeastern.edu/2021/09/23/ethical-artificial-intelligence/
Algunas de las organizaciones más importantes del mundo, desde las Naciones Unidas hasta Google y el Departamento de Defensa de Estados Unidos, proclaman con orgullo su buena fe en lo que respecta al uso ético de la inteligencia artificial.
Pero para muchas otras organizaciones, hablar por hablar es la parte fácil. Un nuevo informe elaborado por un par de investigadores del Northeastern analiza cómo la articulación de los valores, los conceptos éticos y los principios es sólo el primer paso para abordar los desafíos de la IA y la ética de los datos. El trabajo más difícil es pasar de las promesas vagas y abstractas a los compromisos sustantivos que guían la acción y son medibles.
«Se ve un caso tras otro en el que una empresa tiene estas declaraciones de misión que no cumplen», dice John Basl, profesor asociado de filosofía y coautor del informe. «Su intento de hacer ética se desmorona».
ronald sandler y john basl hablan de la inteligencia artificial éticaUna nueva investigación de los profesores de Northeastern Ronald Sandler (izquierda) y John Basl (derecha) recomienda una normativa federal para ayudar a las empresas a articular sus valores y su ética con su software de inteligencia artificial. Foto de Matthew Modoono/Northeastern University
Según el informe, publicado en colaboración con el Atlantic Council, un centro de estudios no partidista de Washington, las promesas de las empresas sin una ejecución adecuada no son más que tópicos y un «lavado de cara a la ética». Las conclusiones se debatirán entre los autores y otros ponentes en un acto virtual que tendrá lugar el 23 de septiembre a mediodía, hora del este.
El informe recomienda una mayor transparencia para ayudar a los ciudadanos a entender cómo y por qué se toman las decisiones de IA sobre ellos. «Si me deniegan un préstamo y no puedo averiguar qué causó esa decisión, entonces no sé qué hacer para futuras solicitudes de préstamos», explica Basl. «La transparencia es importante».
El desarrollo y el uso éticamente problemáticos de la IA y el big data continuarán, y el sector será visto por los responsables políticos, los empleados, los consumidores, los clientes y el público como un fracaso en el cumplimiento de sus propios compromisos declarados, añade el informe.
La mayoría de las empresas tienen buenas intenciones y han hecho un buen trabajo de desarrollo de métricas formales para los puntos de referencia, como la equidad y la parcialidad, pero no son realmente capaces de determinar cuál de ellos va a cumplir sus objetivos, dice Basl.
«Una de las cosas que pretende hacer este informe es obligar a las empresas a reflejar de forma cohesionada sus valores en lugar de tratar de elegir», afirma. «No les dice cómo hacer ninguna cosa en particular, pero les proporciona un proceso por el que tienen que pasar si quieren realizar sinceramente sus valores».*** Translated with http://www.DeepL.com/Translator (free version) ***

We need to design distrust into AI systems to make them safer

https://www.technologyreview.com/2021/05/13/1024874/ai-ayanna-howard-trust-robots/

Me he dado cuenta de que utiliza el término «inteligencia humanizada» para describir su investigación, en lugar de «inteligencia artificial». ¿A qué se debe?

Sí, empecé a utilizarlo en un artículo en 2004. Pensaba en por qué trabajamos en la inteligencia de los sistemas de robótica e IA. No es que queramos crear estas características inteligentes fuera de nuestras interacciones con las personas. Nos motiva la experiencia humana, los datos humanos, las aportaciones humanas. «Inteligencia artificial» implica que es un tipo diferente de inteligencia, mientras que «inteligencia humanizada» dice que es inteligente pero motivada por la construcción humana. Y eso significa que cuando creamos estos sistemas, también nos aseguramos de que tengan algunos de nuestros valores sociales.

¿Cómo se metió en este trabajo?

La motivación principal fue mi investigación de doctorado. Por aquel entonces, trabajaba en el entrenamiento de un robot manipulador para eliminar peligros en un hospital. Esto fue en los días en que no había esos lugares seguros para poner las agujas. Las agujas se tiraban a la misma basura que todo lo demás, y había casos en los que los trabajadores del hospital enfermaban. Así que estaba pensando: ¿Cómo diseñar robots para ayudar en ese entorno?

Así que, desde el principio, se trataba de construir robots que fueran útiles para la gente. Y se trataba de reconocer que no sabíamos cómo construir robots que hicieran muy bien algunas de estas tareas. Pero la gente las hace todo el tiempo, así que vamos a imitar cómo lo hace la gente. Así es como empezó.

Luego estuve trabajando con la NASA y tratando de pensar en la futura navegación de los vehículos en Marte. Y de nuevo, fue como: Los científicos pueden hacer esto muy, muy bien. Así que tenía a los científicos tele-operando estos rovers y mirando lo que estaban viendo en las cámaras de estos rovers, a continuación, tratar de correlacionar la forma de conducir en base a eso. Ese fue siempre el tema: ¿Por qué no acudir a los expertos humanos, codificar lo que hacen en un algoritmo y luego hacer que el robot lo entienda?

¿Había otras personas que pensaban y hablaban de la IA y la robótica de esta forma centrada en el ser humano? ¿O era usted un extraño fuera de serie?

Oh, yo era una persona totalmente atípica. Veía las cosas de forma diferente a los demás. Y por aquel entonces no había ninguna guía sobre cómo hacer este tipo de investigación. De hecho, cuando miro hacia atrás y veo cómo hice la investigación, lo haría totalmente diferente. Hay toda esta experiencia y conocimiento que ha surgido desde entonces en el campo.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Para que los pacientes confíen en la IA médica, deben entenderla

https://hbr.org/2021/09/for-patients-to-trust-medical-ai-they-need-to-understand-it

La IA promete aumentar la calidad y reducir el coste de la asistencia sanitaria en los países desarrollados y en desarrollo. Pero un obstáculo para su uso es que los pacientes no confían en ella. Una de las razones principales es que perciben la IA médica como una caja negra y creen saber más del proceso de toma de decisiones de los médicos de lo que realmente saben, según la investigación de los autores. Un remedio: Ofrecer a los pacientes una explicación de cómo toman las decisiones ambos tipos de profesionales sanitarios.

El ETSI publica especificaciones que impulsan la automatización fiable de las redes y los servicios de extremo a extremo

https://www.etsi.org/newsroom/press-releases/1968-2021-09-etsi-releases-specifications-boosting-trustful-end-to-end-network-and-service-automation?jjj=1631558313533

El ETSI se complace en anunciar la publicación de tres importantes especificaciones e informes elaborados por su grupo de gestión de redes y servicios «Zero-touch» (ZSM). ETSI GS ZSM 003, define la gestión de extremo a extremo de la red y el proyecto de arquitectura de orquestación y soluciones, y ETSI GS ZSM 009-1 especifica los habilitadores para la automatización de bucle cerrado. Los aspectos generales de seguridad relacionados con el marco y las soluciones de ZSM, así como las posibles opciones de mitigación, se presentan en el ETSI GR ZSM 010.

El grupo ZSM del ETSI se formó con el objetivo de definir un marco, soluciones y tecnologías básicas operativas de extremo a extremo y preparadas para el futuro que permitieran la automatización sin intervención de las redes y los servicios/rebanadas emergentes y futuros. El objetivo final es permitir el funcionamiento autónomo de la red, dirigido por políticas de alto nivel. Las redes autónomas serán capaces de autogestionarse y autoorganizarse (configuración, curación, aseguramiento, optimización, etc.) sin intervención humana más allá de la transmisión inicial de intenciones.

ETSI GS ZSM 003 define un proyecto de arquitectura y soluciones para la gestión y orquestación sin intervención de la fragmentación de la red de extremo a extremo y entre dominios, apoyando los procesos de cumplimiento y aseguramiento. La fragmentación de la red abarca diferentes dominios tecnológicos, desde el equipo de usuario (UE) hasta la aplicación, pasando por la red de acceso, la red de transporte y la red central. La especificación aprovecha las especificaciones existentes en el sector, las une y ofrece una solución federada. La alineación y el aprovechamiento de las sinergias entre ETSI ZSM, 3GPP, O-RAN, IETF, BBF, TMF, GSMA NEST, etc. es esencial para permitir la entrega de un corte de red de extremo a extremo que pueda satisfacer los requisitos de las industrias verticales y las demandas de los operadores de red.

Asegurar que los modelos estadísticos generen confianza pública

https://osr.statisticsauthority.gov.uk/publication/ensuring-statistical-models-command-public-confidence/

Aprender lecciones del enfoque para desarrollar modelos para otorgar calificaciones en el Reino Unido en 2020
Resumen ejecutivo
Objeto de este informe
En marzo de 2020, los ministros responsables de la educación en Inglaterra, Escocia, Gales e Irlanda del Norte anunciaron el cierre de escuelas como parte de la respuesta del Reino Unido al brote de coronavirus. Posteriormente, otros anuncios del gobierno confirmaron que no se llevarían a cabo exámenes públicos en el verano de 2020.

Los cuatro reguladores de calificaciones del Reino Unido: Ofqual (Inglaterra), Scottish Qualifications Authority (Escocia), Qualifications Wales (Gales) y el Consejo para el Currículo, los Exámenes y la Evaluación (Irlanda del Norte), recibieron instrucciones de sus respectivos gobiernos para supervisar el desarrollo de un enfoque para otorgar calificaciones en ausencia de exámenes. Si bien los enfoques adoptados fueron diferentes, todos los enfoques involucraron algoritmos estadísticos.

Cuando se publicaron las calificaciones en agosto de 2020, hubo una insatisfacción pública generalizada centrada en cómo se habían calculado las calificaciones y el impacto en la vida de los estudiantes. Las calificaciones en los cuatro países se volvieron a emitir en función de las calificaciones que las escuelas y universidades habían presentado originalmente como parte del proceso para calcular las calificaciones.

La aceptabilidad pública de los algoritmos y modelos estadísticos no había sido un tema tan importante para tantas personas antes, a pesar del aumento en su uso. Como regulador de las estadísticas oficiales en el Reino Unido, nuestro papel es mantener la confianza del público en las estadísticas.

Los modelos y algoritmos estadísticos utilizados por el gobierno y otros organismos públicos son una parte cada vez más frecuente de la vida contemporánea. A medida que aumenta la tecnología y la disponibilidad de datos, el uso de este tipo de modelos en el sector público genera importantes beneficios.

Nos preocupa que los organismos públicos estén menos dispuestos a utilizar modelos estadísticos para respaldar decisiones en el futuro por temor a una reacción de aceptabilidad pública, lo que podría obstaculizar la innovación y el desarrollo de estadísticas y reducir el bien público que pueden ofrecer. Esto se ilustra por el énfasis puesto en no usar algoritmos durante las discusiones sobre cómo se otorgarán las calificaciones en 2021 luego de la cancelación de los exámenes de este año. Por ejemplo, el Secretario de Estado de Educación, al delinear el enfoque para otorgar calificaciones en enero de 2021, declaró que “Este año, confiaremos en los maestros en lugar de en los algoritmos”. [1]

Por lo tanto, es importante que se aprendan lecciones para el gobierno y otros organismos públicos que deseen utilizar modelos estadísticos para respaldar sus decisiones. Esta revisión identifica lecciones para el desarrollo de modelos para respaldar la confianza pública en modelos y algoritmos estadísticos en el futuro.

Crea tu sitio web con WordPress.com
Comenzar