¿Cuándo se convierten las predicciones en políticas?

Ya sea que hable con gerentes de empresas, con los niños de los guiones de Silicon Valley o con académicos experimentados que presentan las aplicaciones comerciales de sus investigaciones, es probable que escuche muchas afirmaciones sobre lo que va a hacer la IA.

Las discusiones histéricas sobre la aplicabilidad del aprendizaje automático de la IA comienzan con un recuento sin aliento de los avances en el modelado predictivo (¡un 9X,XX% de precisión en ImageNet!, ¡un 5,XX% de tasa de error de palabras en el reconocimiento del habla!) y luego saltan bruscamente a las profecías de las tecnologías milagrosas que la IA impulsará en un futuro próximo: cirujanos automatizados, asistentes virtuales de nivel humano, desarrollo de robo-software, servicios legales basados en la IA.

Este juego de manos elude una cuestión clave: ¿cuándo son suficientes las predicciones precisas para guiar las acciones?

A riesgo de pintar con una brocha demasiado ancha, tenemos tres tipos canónicos de problemas de aprendizaje automático:

Aprendizaje supervisado (SL): producción de modelos predictivos mediante la extracción de patrones de colecciones de ejemplos etiquetados.

Aprendizaje no supervisado (UL): cualquier tarea que no requiera anotaciones.)

Aprendizaje por refuerzo (RL): aprendizaje a partir de una señal de recompensa posiblemente escasa a lo largo de las interacciones con un entorno.

El primero (supervisado) representa casi todas las aplicaciones actuales del aprendizaje automático comercialmente viables, pero sólo el último (RL) se ocupa de alguna manera de los modelos que realmente hacen algo. Por desgracia, la RL moderna es lenta para aprender, inestable y frágil ante los cambios sutiles del entorno, obstáculos que actualmente impiden su uso en la mayoría de los entornos del mundo real.

¿SON LAS PREDICCIONES ACCIONES?

Para ver cuándo las predicciones pueden o no ser suficientes para guiar las acciones, consideremos dos posibles aplicaciones del aprendizaje automático: (i) Construir una herramienta que ayude a los patólogos a reconocer la tuberculosis a partir de imágenes de microscopio; (ii) Automatizar las decisiones de préstamo.

EL ROBOT PATÓLOGO

En el primer caso, las muestras de sangre llegan a los departamentos de patología procedentes de pacientes de la región geográfica cercana. Aunque puede haber cierta variabilidad natural entre los pacientes en el aspecto de la sangre (más brillante cuando está más oxigenada, más oscura cuando está menos), la distribución es estable a lo largo de la escala de días, meses y años. Además, el aspecto de la tuberculosis no cambia de forma apreciable a lo largo del tiempo y es poco probable que el diagnóstico etiquetado por el patólogo tenga un impacto significativo en la distribución de las imágenes que veremos en el futuro. Así que no tenemos que preocuparnos mucho por los bucles de retroalimentación que acoplan la acción y la observación.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Si la IA predice tu futuro, ¿sigues siendo libre?

https://www.wired.com/story/algorithmic-prophecies-undermine-free-will/

Carissa Véliz

MIENTRAS LEES estas palabras, es probable que haya docenas de algoritmos haciendo predicciones sobre ti. Probablemente fue un algoritmo el que determinó que estarías expuesto a este artículo porque predijo que lo leerías. Las predicciones algorítmicas pueden determinar si consigues un préstamo o un trabajo o un apartamento o un seguro, y mucho más.

Estos análisis predictivos están conquistando cada vez más esferas de la vida. Y, sin embargo, nadie te ha pedido permiso para hacer esas predicciones. Ningún organismo gubernamental las supervisa. Nadie le informa sobre las profecías que determinan su destino. Peor aún, una búsqueda en la literatura académica sobre la ética de la predicción muestra que es un campo de conocimiento poco explorado. Como sociedad, no hemos reflexionado sobre las implicaciones éticas de hacer predicciones sobre personas-seres que se supone están dotadas de agencia y libre albedrío.

Desafiar las probabilidades está en el corazón de lo que significa ser humano. Nuestros mayores héroes son aquellos que desafiaron las probabilidades: Abraham Lincoln, Mahatma Gandhi, Marie Curie, Hellen Keller, Rosa Parks, Nelson Mandela y otros. Todos ellos triunfaron más allá de las expectativas. Todos los profesores conocen a niños que han logrado más de lo que les tocó en sus cartas. Además de mejorar la base de todos, queremos una sociedad que permita y estimule acciones que desafíen las probabilidades. Sin embargo, cuanto más utilicemos la IA para clasificar a las personas, predecir su futuro y tratarlas en consecuencia, más reduciremos la capacidad de acción humana, lo que a su vez nos expondrá a riesgos desconocidos.

Crea tu sitio web con WordPress.com
Comenzar