No necesitamos una regulación débil en contratación, necesitamos una prohibición

https://www.fastcompany.com/90625587/new-york-city-ai-hiring-rules-ban

A veces, la cura es peor que la enfermedad. Cuando se trata de los peligros de la inteligencia artificial, las regulaciones mal elaboradas que dan una falsa sensación de responsabilidad pueden ser peores que ninguna. Este es el dilema que enfrenta la ciudad de Nueva York, que está preparada para convertirse en la primera ciudad del país en aprobar reglas sobre el creciente papel de la IA en el empleo.

Cada vez más, cuando solicitas un trabajo, pides un aumento o esperas tu horario de trabajo, la IA elige tu destino. Es alarmante que muchos solicitantes de empleo nunca se den cuenta de que están siendo evaluados por una computadora, y casi no tienen ningún recurso cuando el software está sesgado, comete un error o no se adapta a una discapacidad. Si bien la ciudad de Nueva York ha dado el paso importante de tratar de abordar la amenaza del sesgo de la IA, el problema es que las reglas pendientes ante el Ayuntamiento son malas, realmente malas, y deberíamos escuchar a los activistas hablar antes de que sea demasiado tarde.

Algunos defensores piden enmiendas a esta legislación, como ampliar las definiciones de discriminación más allá de la raza y el género, aumentar la transparencia y cubrir el uso de herramientas de inteligencia artificial en la contratación, no solo en la venta. Pero muchos más problemas plagan el proyecto de ley actual, por lo que actualmente es preferible la prohibición de la tecnología a un proyecto de ley que suena mejor de lo que realmente es.

Los defensores de la legislación de la industria la están encubriendo con la retórica de la igualdad, la justicia y la no discriminación. Pero la verdadera fuerza impulsora es el dinero. Las empresas de inteligencia artificial y los proveedores de software están preparados para ganar millones por el software que podría decidir si obtiene una entrevista de trabajo o su próxima promoción. Las empresas de software nos aseguran que pueden auditar sus herramientas en busca de racismo, xenofobia e inaccesibilidad. Pero hay un problema: ninguno de nosotros sabe si estas auditorías realmente funcionan. Dada la complejidad y opacidad de los sistemas de inteligencia artificial, es imposible saber qué significaría en la práctica requerir una «auditoría de sesgo». A medida que la IA se desarrolla rápidamente, ni siquiera está claro si las auditorías funcionarían para algunos tipos de software.

Peor aún, la legislación pendiente en Nueva York deja las respuestas a estas preguntas casi por completo en manos de los propios proveedores de software. El resultado es que las empresas que fabrican y evalúan software de inteligencia artificial se están acercando cada vez más a escribir las reglas de su industria. Esto significa que aquellos que sean despedidos, degradados o rechazados para un trabajo debido a un software sesgado podrían no tener suerte.

Pero esto no es solo una pregunta sobre las regulaciones en una ciudad. Después de todo, si las empresas de inteligencia artificial pueden capturar las regulaciones aquí, pueden capturarlas en cualquier lugar, y aquí es donde esta saga local tiene implicaciones nacionales.

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Crea tu sitio web con WordPress.com
Comenzar
A %d blogueros les gusta esto: