‘Inteligencia’ artificial: sistema de desempleo negó reclamos legítimos de COVID-19

La avalancha de solicitudes de beneficios por desempleo relacionadas con el coronavirus provocó que el 50% de los sitios web de las agencias estatales de desempleo del país colapsaran. Los millones de reclamaciones legítimas y fraudulentas abrumaron los sistemas informáticos utilizados por la mayoría de los estados para administrar las prestaciones por desempleo.

Michigan no fue una excepción, ya que la Agencia de Seguro de Desempleo (UIA) del estado informó que un gran volumen de reclamos presentados bloqueó temporalmente su sitio web y provocó líneas telefónicas atascadas que impidieron que algunos reclamantes pudieran comunicarse durante semanas.

La tasa de desempleo ajustada estacionalmente de Michigan avanzó en
ocho décimas de punto porcentual hasta el 6,9% en noviembre

El controvertido sistema informático MiDAS (Michigan Integrated Data Automated System) de la UIA marcó más de 540.000 (de 1,7 millones) reclamaciones como posiblemente fraudulentas, y dio el paso de congelar las cuentas y suspender el pago de beneficios para descubrir reclamaciones falsas y fraudulentas. Desafortunadamente, el retraso en los beneficios creó dificultades para decenas de miles de solicitantes legítimos.

Para colmo de males, miles de residentes del estado cuyas cuentas habían sido marcadas incorrectamente como fraudulentas encontraron prácticamente imposible cargar con éxito documentos de verificación de identidad para demostrar que eran quienes decían ser y restablecer sus reclamos legítimos.

Las historias contadas por algunas de las miles de personas cuyos beneficios fueron cancelados y acusadas falsamente de presentar reclamos fraudulentos me sonaron familiares porque las había escuchado antes.

https://eu.detroitnews.com/story/opinion/2020/11/19/opinion-unemployment-system-denied-legitimate-covid-19-claims/6339115002/

Actores públicos sin valores públicos: legitimidad, dominación y regulación del sector tecnológico

La escala y la asimetría del poder de las empresas de tecnología comercial sobre las personas a través de los datos, combinada con la creciente participación del sector privado en la gobernanza pública, significa que cada vez más, las personas no tienen la capacidad de optar por no participar en las empresas de tecnología. Al mismo tiempo, esas empresas están interviniendo cada vez más a nivel de la población de formas que tienen implicaciones para la vida social y política. Esto crea el potencial para las relaciones de poder de dominación y exige que decidamos qué constituye la legitimidad para actuar sobre el público. La ética empresarial y el derecho privado no están diseñados para responder a estas preguntas, que son principalmente políticas. Si las personas han perdido el derecho a desvincularse de las tecnologías comerciales, es posible que debamos hacer que las empresas que las ofrecen cumplan con los mismos estándares que exigimos al sector público. Este artículo primero define el problema y demuestra que es significativo y generalizado, y luego aboga por el desarrollo de un marco normativo global para lo que constituye la no dominación con respecto a las tecnologías digitales. Dicho marco debe incluir una idea matizada de poder político y responsabilidad que pueda responder no solo a la legalidad del comportamiento empresarial, sino a su legitimidad.

https://link.springer.com/article/10.1007/s13347-020-00441-4

Rejilla de ganado de Somerset confundida con muros por los sensores de automóviles

Los autos se salieron de la carretera tratando de cruzar una rejilla de ganado después de que los sensores la confundieron con una pared y frenaron de golpe.

El consejo del condado de Somerset dijo que la red había estado «causando un peligro muy real a los usuarios de la carretera» en Hill Road en Minehead.

La cuadrícula, que se cortó en la empinada colina, «parecía ser una obstrucción» para los sensores de los automóviles modernos que aplicaban los frenos automáticamente.

El consejo del condado ha gastado 70.000 libras esterlinas para «solucionar el problema».

Un portavoz dijo que la parrilla tuvo que ser reemplazada luego de una «serie de incidentes de autos que salieron de la carretera», pero «afortunadamente no ha habido colisiones graves».

Para crear un «recorrido virtualmente suave a través de la red», los equipos de carreteras pasaron un mes levantando aproximadamente 90 pies (27,4 m) de carretera y rediseñando los «accesos a las calzadas».

https://www.bbc.com/news/uk-england-somerset-55571080

El año en que los algoritmos escaparon de la cuarentena: una revisión de 2020

Reacción

La aceleración de la automatización de la sociedad no fue sin oposición. En agosto, estudiantes británicos salieron a las calles coreando que el algoritmo que asignaba automáticamente sus calificaciones no era legítimo (usaron otra palabra). Como resultado, el gobierno británico retrocedió y mantuvo las calificaciones que habían dado los maestros.

Los reguladores y los tribunales de toda la Unión Europea tomaron medidas drásticas contra algunos experimentos de automatización. Las cámaras que detectaban a personas que no llevaban máscaras faciales en Francia se desactivaron después de que la autoridad de protección de datos del país las declarara ilegales. En los Países Bajos, un tribunal falló en contra de SyRI, un sistema que intentó detectar automáticamente a los defraudadores en los servicios de asistencia social, calificándolo de desproporcionado. En Austria, se suspendió un algoritmo que intentaba clasificar a las personas desempleadas en función de su «empleabilidad».

Embestida 

Los gobiernos no se sintieron impresionados por estas decisiones. En los Países Bajos, se presentó un proyecto de ley para establecer un nuevo sistema similar a SyRI, a una escala mucho mayor. La calificación automatizada de los estudiantes se permitió en varios países, incluida Alemania, a pesar de las graves preocupaciones sobre su equidad.

En varios países de la UE, como Francia y Grecia, la policía se está preparando para desplegar reconocimiento facial en vivo. Esto permitiría a las fuerzas de coerción identificar a los individuos de un grupo, en tiempo real. Aislar a los manifestantes y quitarles la protección que brinda el anonimato en la acción de grupo quita cualquier sustancia a la libertad de reunión.

A pesar de los pedidos de interdicción, una guerra breve pero intensa en Karabaj demostró la utilidad de las armas autónomas. Las fuerzas azerbaiyanas utilizaron al menos tres modelos diferentes de drones que son capaces de identificar y destruir un objetivo automáticamente. Algunos analistas creen que la innovación táctica aportada por estas nuevas armas contribuyó a la victoria de Azerbaiyán.

https://algorithmwatch.org/en/review-2020/

La ciudad holandesa utiliza un algoritmo para evaluar el valor de la vivienda, pero no tiene ni idea de cómo funciona

 En un caso aparentemente rutinario en el tribunal de apelaciones de Ámsterdam, un juez dictaminó que era aceptable que un municipio utilizara un algoritmo de caja negra, siempre que los resultados no fueran sorprendentes.

En 2016, el municipio de Castricum, una ciudad costera de 35.000 habitantes en Holanda, fijó el valor de la vivienda de un reclamante anónimo en 320.000 € (en los Países Bajos, el impuesto a la propiedad se paga sobre la base del valor de reventa estimado de la vivienda). Demasiado alto, dijo el demandante, que acudió rápidamente a los tribunales.

El reclamante argumentó que su propiedad resultó dañada por un terremoto, por lo que su valor de reventa fue mucho menor. Los lectores sentados en una falla sísmica pueden reírse de la idea de terremotos en Holanda, pero sí ocurrió un terremoto a 10 kilómetros de Castricum el 30 de enero de 1997, magnitud 2. El municipio ofreció visitar la casa nueve veces para evaluar los daños, pero el reclamante declinó, citando preocupaciones sobre su libertad. El tribunal de apelación de Ámsterdam, lógicamente, confirmó la evaluación del municipio en un fallo en febrero pasado.

https://algorithmwatch.org/en/story/woz-castricum-gdpr-art-22/

La forma en que entrenamos a la IA es fundamentalmente defectuosa

 No es ningún secreto que los modelos de aprendizaje automático ajustados y ajustados para un rendimiento casi perfecto en el laboratorio a menudo fallan en entornos reales. Esto generalmente se atribuye a una falta de coincidencia entre los datos en los que se entrenó y probó la IA y los datos que encuentra en el mundo, un problema conocido como cambio de datos. Por ejemplo, una IA entrenada para detectar signos de enfermedad en imágenes médicas de alta calidad tendrá problemas con imágenes borrosas o recortadas capturadas con una cámara barata en una clínica concurrida.

Ahora, un grupo de 40 investigadores de siete equipos diferentes en Google ha identificado otra causa importante del fracaso común de los modelos de aprendizaje automático. Llamado «subespecificación», podría ser un problema aún mayor que el cambio de datos. «Estamos pidiendo más a los modelos de aprendizaje automático de lo que podemos garantizar con nuestro enfoque actual», dice Alex D’Amour, quien dirigió el estudio.

https://www.technologyreview.com/2020/11/18/1012234/training-machine-learning-broken-real-world-heath-nlp-computer-vision/

Cuatro razones por las que promocionar la IA es un problema ético

 El verdadero valor de la IA no radica en burlar o reconfigurar a la humanidad. El verdadero valor de la IA radica en aumentar nuestra comprensión de los problemas del mundo real cuya complejidad abruma la mente humana.

https://dorotheabaur.medium.com/four-reasons-why-hyping-ai-is-an-ethical-problem-8db47b17bf43

Los algoritmos pueden impulsar la desigualdad. Solo mire el caos de exámenes escolares en Gran Bretaña

 El joven de 18 años, cuyo nombre completo CNN no revela porque temía las repercusiones de las universidades, estaba entre los más de 300.000 alumnos en Inglaterra, Gales e Irlanda del Norte que se despertaron el 13 de agosto con resultados de exámenes de nivel A de importancia crítica, que son en términos generales equivalente al diploma de escuela secundaria de EE. UU.

Estos exámenes se cancelaron este verano debido a la pandemia. En cambio, las calificaciones de los estudiantes se determinaron mediante un algoritmo, el Modelo de desempeño del centro directo, que fue elegido por el regulador de exámenes del gobierno. El modelo se basó en una colección de datos para producir las calificaciones. Una protesta posterior por el supuesto sesgo algorítmico contra los alumnos de entornos más desfavorecidos ha hecho que tanto los adolescentes como los expertos pidan un mayor escrutinio de dicha tecnología.

https://edition.cnn.com/2020/08/23/tech/algorithms-bias-inequality-intl-gbr/index.html

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

El Servicio Secreto compra datos de ubicación que de otro modo necesitarían una orden judicial

 El Servicio Secreto pagó alrededor de $ 2 millones en 2017-2018 a una firma llamada Babel Street para usar su servicio Locate X, según un documento (PDF) obtenido por Vice Motherboard. El contrato describe qué tipo de contenido, capacitación y atención al cliente debe proporcionar Babel Street al Servicio Secreto.

Locate X proporciona datos de ubicación recopilados y recopilados de una amplia variedad de otras aplicaciones, informó el sitio de tecnología Protocol a principios de este año. Los usuarios pueden «dibujar una valla digital alrededor de una dirección o área, identificar los dispositivos móviles que estaban dentro de esa área y ver a dónde más han viajado esos dispositivos» en los últimos meses, explicó Protocol.

Las agencias dependientes del Departamento de Seguridad Nacional, incluidas el Servicio de Inmigración y Control de Aduanas (ICE) y Aduanas y Protección Fronteriza (CBP), han comprado acceso a la actividad de ubicación de teléfonos celulares para investigaciones, informó The Wall Street Journal en febrero. En junio, el WSJ también informó que el IRS compró el acceso a los datos de ubicación a través de bases de datos comerciales.

Más fácil que una orden judicial

Las empresas privadas pueden recopilar, comprar, vender e intercambiar todo tipo de datos confidenciales de los usuarios más o menos como quieran, con muy pocas limitaciones, y lo hacen.

https://arstechnica.com/tech-policy/2020/08/secret-service-other-agencies-buy-access-to-mobile-phone-location-data/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

El Escándalo de las escuelas

 Sin embargo, sin excepción, eso es precisamente lo que hicieron las cuatro naciones del Reino Unido, con una fe ciega en el poder de los datos y la tecnología. Todos los partidos que gobiernan en el Reino Unido (los conservadores, los laboristas, el SNP, el DUP, el Sinn Féin e incluso los demócratas liberales (que están al frente del Ministerio de Educación de Gales)) son culpables. A nadie, en ningún lugar, le pareció que se le ocurriera cuáles podrían ser las obvias debilidades deterministas de este sistema; que incluso si un conjunto de algoritmos pudiera predecir con certeza cómo podría funcionar un individuo, entonces, por razones políticas y, sí, moral, probablemente no debería hacerlo.

Para los profesores, lejos de ser una aberración, fue la apoteosis de cómo el Departamento de Educación (DfE) y los políticos habían entendido la escolarización durante una década, una década de política educativa en inglés en la que Cummings había sido un actor central como asesor de Michael Gove. . Un director describió los acontecimientos de los últimos días como el «punto final ideológico de la guerra cultural estratégica dentro de la educación estatal inglesa».

Añadió: “El DfE, que carece de experiencia directa en el aula, cree que hay una verdad en los datos, que pueden orientar el complicado negocio de educar a los jóvenes. Los maestros, por otro lado, tienden a estar más impulsados ​​por valores. Por lo tanto, los datos y los valores están encerrados en una batalla a largo plazo por el alma de la educación. Es posible tener ambos y es el trabajo del Secretario de Estado lograr esta alquimia educativa en todo el sistema «. El fiasco de los exámenes demuestra las debilidades de esta forma de tecnocracia – de «dataocracia» – y de cómo la política y sus practicantes están en deuda con ella.

Existe la suposición de que los algoritmos son inherentemente neutrales, un mecanismo apolítico para que los políticos tomen decisiones difíciles y garanticen resultados justos. Pero eso siempre es falso. Hoy en día, demasiados de nuestros políticos parecen incapaces de argumentar desde los primeros principios e identificar y arbitrar los problemas políticos en los términos en los que deberían basarse: justicia, mérito, igualdad y libertad. El filósofo Michael Freeden argumentó que una ideología era simplemente una lente a través de la cual una persona ve y ordena el mundo político que la rodea. Un político, viendo esto a través de una lente conservadora, habría identificado estos problemas de inmediato: que el principio de desierto y respeto por el individuo exigiría una alternativa. Tal vez sea una consecuencia de una política en la que la confianza en la política se ha hundido tanto que, como ha argumentado el ex juez de la Corte Suprema Jonathan Sumption, el resultado natural es reducir todo a cuestiones de legalismo y, yo diría, a una matemática política. , también.

https://www.newstatesman.com/politics/education/2020/08/schools-scandal

Five data-ethics and AI experts on… what we can learn from the qualifications algorithm fiasco

La debacle de los exámenes del Reino Unido nos recuerda que los algoritmos no pueden reparar los sistemas dañados

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Crea tu sitio web con WordPress.com
Comenzar