La falacia de la entrada

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3571266

La fijación algorítmica de los precios del crédito amenaza con discriminar a los grupos protegidos. Tradicionalmente, la ley de préstamos justos ha abordado estas amenazas mediante el escrutinio de los insumos. Pero el escrutinio de los insumos se ha convertido en una falacia en el mundo de los algoritmos.

Utilizando un rico conjunto de datos de hipotecas, simulo la fijación de precios de créditos algorítmicos y demuestro que el escrutinio de los insumos no aborda los problemas de discriminación y amenaza con crear un mito algorítmico de daltonismo. La ubicuidad de las correlaciones en los grandes datos, combinada con la flexibilidad y la complejidad del aprendizaje automático, significa que no se puede descartar la consideración de características protegidas, como la raza, incluso cuando se excluyen formalmente. Además, el uso de datos que incluyan características protegidas puede, de hecho, reducir los resultados dispares.

Sin embargo, los principales enfoques de la legislación sobre discriminación en la era de los algoritmos siguen cometiendo la falacia de los insumos. Estos enfoques sugieren que excluyamos las características protegidas y sus sustitutos y que limitemos los algoritmos a los insumos preaprobados. Utilizando mi ejercicio de simulación, refuto estos enfoques con un nuevo análisis. Demuestro que fallan en sus propios términos, que son inviables y que pasan por alto los beneficios de una predicción precisa. Estos fallos son especialmente perjudiciales para los grupos e individuos marginados porque amenazan con perpetuar su exclusión histórica del crédito y, por tanto, de una vía central para lograr una mayor prosperidad e igualdad.

Sostengo que la ley de préstamos justos debe cambiar a un análisis centrado en los resultados. Cuando ya no es posible examinar los insumos, el análisis de los resultados es la única forma de evaluar si un método de fijación de precios da lugar a disparidades inadmisibles. Esto es cierto no sólo en virtud de la doctrina jurídica del impacto dispar, que siempre se ha preocupado por los resultados, sino también en virtud de la doctrina del trato dispar, que históricamente ha evitado examinar los resultados dispares. Ahora, el tratamiento dispar ya no puede basarse en el escrutinio de la entrada y debe considerarse a través de la lente de los resultados. Propongo un nuevo marco que los organismos reguladores, como la Oficina de Protección Financiera del Consumidor, pueden adoptar para medir las disparidades y luchar contra la discriminación. Esta propuesta traza un camino empírico para la legislación antidiscriminatoria en materia de préstamos justos y también es prometedora para otros contextos algorítmicos, como la justicia penal y el empleo.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Crea tu sitio web con WordPress.com
Comenzar
A %d blogueros les gusta esto: