MIENTRAS LEES estas palabras, es probable que haya docenas de algoritmos haciendo predicciones sobre ti. Probablemente fue un algoritmo el que determinó que estarías expuesto a este artículo porque predijo que lo leerías. Las predicciones algorítmicas pueden determinar si consigues un préstamo o un trabajo o un apartamento o un seguro, y mucho más.
Estos análisis predictivos están conquistando cada vez más esferas de la vida. Y, sin embargo, nadie te ha pedido permiso para hacer esas predicciones. Ningún organismo gubernamental las supervisa. Nadie le informa sobre las profecías que determinan su destino. Peor aún, una búsqueda en la literatura académica sobre la ética de la predicción muestra que es un campo de conocimiento poco explorado. Como sociedad, no hemos reflexionado sobre las implicaciones éticas de hacer predicciones sobre personas-seres que se supone están dotadas de agencia y libre albedrío.
Desafiar las probabilidades está en el corazón de lo que significa ser humano. Nuestros mayores héroes son aquellos que desafiaron las probabilidades: Abraham Lincoln, Mahatma Gandhi, Marie Curie, Hellen Keller, Rosa Parks, Nelson Mandela y otros. Todos ellos triunfaron más allá de las expectativas. Todos los profesores conocen a niños que han logrado más de lo que les tocó en sus cartas. Además de mejorar la base de todos, queremos una sociedad que permita y estimule acciones que desafíen las probabilidades. Sin embargo, cuanto más utilicemos la IA para clasificar a las personas, predecir su futuro y tratarlas en consecuencia, más reduciremos la capacidad de acción humana, lo que a su vez nos expondrá a riesgos desconocidos.
MIENTRAS LEES estas palabras, es probable que haya docenas de algoritmos haciendo predicciones sobre ti. Probablemente fue un algoritmo el que determinó que estarías expuesto a este artículo porque predijo que lo leerías. Las predicciones algorítmicas pueden determinar si consigues un préstamo o un trabajo o un apartamento o un seguro, y mucho más.
Estos análisis predictivos están conquistando cada vez más esferas de la vida. Y, sin embargo, nadie te ha pedido permiso para hacer esas predicciones. Ningún organismo gubernamental las supervisa. Nadie le informa sobre las profecías que determinan su destino. Peor aún, una búsqueda en la literatura académica sobre la ética de la predicción muestra que es un campo de conocimiento poco explorado. Como sociedad, no hemos reflexionado sobre las implicaciones éticas de hacer predicciones sobre personas-seres que se supone están dotadas de agencia y libre albedrío.
Desafiar las probabilidades está en el corazón de lo que significa ser humano. Nuestros mayores héroes son aquellos que desafiaron las probabilidades: Abraham Lincoln, Mahatma Gandhi, Marie Curie, Hellen Keller, Rosa Parks, Nelson Mandela y otros. Todos ellos triunfaron más allá de las expectativas. Todos los profesores conocen a niños que han logrado más de lo que les tocó en sus cartas. Además de mejorar la base de todos, queremos una sociedad que permita y estimule acciones que desafíen las probabilidades. Sin embargo, cuanto más utilicemos la IA para clasificar a las personas, predecir su futuro y tratarlas en consecuencia, más reduciremos la capacidad de acción humana, lo que a su vez nos expondrá a riesgos desconocidos.
LOS SERES HUMANOS han utilizado la predicción desde antes del Oráculo de Delfos. Las guerras se libraban sobre la base de esas predicciones. En décadas más recientes, la predicción se ha utilizado para informar sobre prácticas como la fijación de las primas de los seguros. Esas predicciones solían referirse a grandes grupos de personas: por ejemplo, cuántas personas de entre 100.000 chocarán sus coches. Algunos de esos individuos serían más cuidadosos y afortunados que otros, pero las primas eran más o menos homogéneas (excepto en categorías amplias como los grupos de edad) bajo el supuesto de que la agrupación de riesgos permite compensar los costes más altos de los menos cuidadosos y afortunados con los costes relativamente más bajos de los cuidadosos y afortunados. Cuanto mayor es el grupo, más predecibles y estables son las primas.
La ética de la virtud se ha sugerido muchas veces como una receta prometedora para la construcción de agentes morales artificiales debido a su énfasis en el carácter moral y el aprendizaje. Sin embargo, dada la compleja naturaleza de la teoría, casi ningún trabajo ha intentado de facto aplicar los principios básicos de la ética de la virtud en las máquinas morales. El objetivo principal de este trabajo es demostrar cómo la ética de la virtud puede ser llevada desde la teoría hasta la implementación en máquinas. Para lograr este objetivo, exploramos críticamente las posibilidades y los desafíos de la ética de la virtud desde una perspectiva computacional. Basándonos en trabajos conceptuales y técnicos anteriores, esbozamos una versión de la virtud artificial basada en el funcionalismo moral, el aprendizaje ascendente conexionista y la recompensa eudaimónica. A continuación, describimos cómo las características principales de la teoría esbozada pueden interpretarse en términos de funcionalidad, lo que a su vez informa del diseño de los componentes necesarios para la cognición virtuosa. Por último, presentamos un marco global para el desarrollo técnico de agentes virtuosos artificiales y discutimos cómo pueden implementarse en entornos morales.
Hay una tendencia en los diferentes subcampos de la IA a valorar una pequeña colección
de puntos de referencia influyentes. Estos puntos de referencia actúan como sustitutos de una serie de
de problemas comunes ungidos que a menudo se enmarcan como hitos fundacionales en el camino hacia sistemas de IA flexibles y generalizables. El estado de la técnica
El rendimiento del estado de la técnica en estos puntos de referencia se considera un indicador del progreso
hacia estos objetivos a largo plazo. En este documento de posición, exploramos los límites de estos
para poner de manifiesto los problemas de validez de constructo que plantean como medidas
como las medidas de progreso funcionalmente «generales» que pretenden ser.
Este documento considera la impugnación legal en el Reino Unido como una fuente de reflexiones útiles para la política de IA. El gobierno ha publicado una «Estrategia Nacional de Inteligencia Artificial», pero no está claro hasta qué punto será eficaz, dadas las dudas sobre los niveles de confianza del público. Una de las principales preocupaciones es la aparente «desviación» de la ley por parte del Reino Unido. Se convocaron una serie de actos para investigar las perspectivas jurídicas críticas sobre estos temas, que culminaron en un taller de expertos que abordó cinco sectores. Los participantes debatieron sobre la IA en el contexto de las tendencias más amplias hacia la toma de decisiones automatizada (ADM). Se espera que continúe la reciente proliferación de acciones legales. Los debates pusieron de manifiesto las diversas formas en que los ejemplos individuales se conectan sistemáticamente con la evolución de la gobernanza y la «toma de decisiones relacionadas con la IA» en general, sobre todo debido a los problemas crónicos de transparencia y concienciación. Esto proporciona una visión fresca y actual de las perspectivas de los grupos clave que plantean críticas relevantes para la política en este ámbito. La negligencia de los responsables políticos con respecto a la ley y los procesos legales está contribuyendo a los problemas de calidad de la reciente aplicación práctica de la IA en el Reino Unido. Ahora se necesitan señales contundentes para pasar del círculo vicioso de la creciente desconfianza a un enfoque capaz de generar la confianza del público. Se resumen las sugerencias para que las consideren los responsables políticos.
A medida que muchos australianos salen de las restricciones de cierre, se enfrentan a una serie de nuevos puntos de control: en las tiendas, el lugar de trabajo, los lugares de ocio y las fronteras estatales.
Muchos de nosotros no solo tenemos que registrarnos en varios lugares escaneando códigos QR, sino que ahora se nos exige que mostremos una prueba de vacunación y, en algunos contextos, una prueba de pruebas de COVID-19 negativas.
El resultado ha sido la imagen cada vez más familiar de personas tanteando con sus teléfonos inteligentes en la acera frente a cualquier espacio en el que intentan entrar. En algunos casos, esto puede significar frustrantes combates con las aplicaciones («¿Cuál era el código PIN de la aplicación de Medicare?»; «¿Lo he vinculado a mi cuenta de MyGov?»; «¿Dónde está ese texto con los resultados de mis pruebas?»; «Uh-oh… ¡mi batería se está agotando!»).
Australia no está sola. La pandemia ha contribuido a un nuevo conjunto de protocolos para viajes y accesos de todo tipo, todo ello en nombre del control de la circulación humana para frustrar la del virus.
Estas nuevas capas de verificación y control sientan las bases de una tecnología que ofrece cortar el nudo gordiano de las contraseñas, los nombres de usuario, los códigos PIN y QR, así como los pasaportes, las tarjetas de vacunas y los billetes de papel: la biometría.
Aprovechando el éxito del uso de la tecnología de reconocimiento facial para el control fronterizo, la Asociación Internacional de Transporte Aéreo (IATA) ha presentado una iniciativa de pases de viaje que permitiría un tránsito «sin fisuras», respetando las restricciones de la pandemia. De acuerdo con la afirmación de la IATA de que «el futuro de la aviación es biométrico», su solución «One ID» no sólo identificaría las credenciales de viaje de un pasajero, sino que las vincularía, a nivel internacional, con el estado de las vacunas de los viajeros, los resultados de las pruebas y/o la «prueba de recuperación».
La solución «One ID» aborda un problema que no se limita a los viajes aéreos -o a la respuesta a la COVID-19-, sino que se ve agravado por la perspectiva de viajar en tiempos de pandemia.
En términos más generales, nos encontramos navegando por una creciente variedad de solicitudes de acceso y puntos de control tanto en línea como fuera de ella. Según algunas estimaciones, la persona media con acceso a dispositivos inteligentes y recursos en línea tiene unas 100 contraseñas, y este número está creciendo rápidamente. La proliferación de los servicios en línea puede facilitar el acceso, pero arroja obstáculos en forma de credenciales de acceso, como probablemente ha descubierto cualquiera que haya tenido que restablecer su sistema de identificación de dos factores.
Utilizamos contraseñas para ver la televisión y las películas, para acceder al banco, a la biblioteca, a nuestros libros, a nuestro correo electrónico, a nuestros periódicos, a la intranet del trabajo, a los boletines de notas de nuestros hijos, a nuestros sitios de compras, a nuestro proveedor de servicios de Internet, a nuestra cuenta de servicios gubernamentales, a nuestra cuenta de peaje en la autopista, a nuestra música, a nuestras cuentas en las redes sociales, a nuestros juegos en línea, a nuestros documentos y calendarios, y así sucesivamente.
El actual intento de controlar la propagación del COVID-19 significa que el espacio físico se parecerá más a los espacios protegidos por contraseña en línea; tendremos que mostrar credenciales para verificar nuestro estado de inmunidad y marcar nuestros movimientos a medida que avancemos en el curso de nuestra vida cotidiana: presentarnos en el trabajo, ir a un café para almorzar o al teatro por la noche.
Estas formas de «fricción» que se multiplican al movernos por el espacio físico y virtual sientan las bases para una solución biométrica unificada, una respuesta tecnológica a los obstáculos digitales que se multiplican a nuestro alrededor.
La solución «One ID» prevista por la IATA para los viajes en avión anticipa un mundo en el que, en lugar de tener que lidiar con los pasaportes y otras formas de identificación, seremos reconocidos por sistemas automatizados que nos permitirán pasar sin problemas por estos puntos de control.
La fijación algorítmica de los precios del crédito amenaza con discriminar a los grupos protegidos. Tradicionalmente, la ley de préstamos justos ha abordado estas amenazas mediante el escrutinio de los insumos. Pero el escrutinio de los insumos se ha convertido en una falacia en el mundo de los algoritmos.
Utilizando un rico conjunto de datos de hipotecas, simulo la fijación de precios de créditos algorítmicos y demuestro que el escrutinio de los insumos no aborda los problemas de discriminación y amenaza con crear un mito algorítmico de daltonismo. La ubicuidad de las correlaciones en los grandes datos, combinada con la flexibilidad y la complejidad del aprendizaje automático, significa que no se puede descartar la consideración de características protegidas, como la raza, incluso cuando se excluyen formalmente. Además, el uso de datos que incluyan características protegidas puede, de hecho, reducir los resultados dispares.
Sin embargo, los principales enfoques de la legislación sobre discriminación en la era de los algoritmos siguen cometiendo la falacia de los insumos. Estos enfoques sugieren que excluyamos las características protegidas y sus sustitutos y que limitemos los algoritmos a los insumos preaprobados. Utilizando mi ejercicio de simulación, refuto estos enfoques con un nuevo análisis. Demuestro que fallan en sus propios términos, que son inviables y que pasan por alto los beneficios de una predicción precisa. Estos fallos son especialmente perjudiciales para los grupos e individuos marginados porque amenazan con perpetuar su exclusión histórica del crédito y, por tanto, de una vía central para lograr una mayor prosperidad e igualdad.
Sostengo que la ley de préstamos justos debe cambiar a un análisis centrado en los resultados. Cuando ya no es posible examinar los insumos, el análisis de los resultados es la única forma de evaluar si un método de fijación de precios da lugar a disparidades inadmisibles. Esto es cierto no sólo en virtud de la doctrina jurídica del impacto dispar, que siempre se ha preocupado por los resultados, sino también en virtud de la doctrina del trato dispar, que históricamente ha evitado examinar los resultados dispares. Ahora, el tratamiento dispar ya no puede basarse en el escrutinio de la entrada y debe considerarse a través de la lente de los resultados. Propongo un nuevo marco que los organismos reguladores, como la Oficina de Protección Financiera del Consumidor, pueden adoptar para medir las disparidades y luchar contra la discriminación. Esta propuesta traza un camino empírico para la legislación antidiscriminatoria en materia de préstamos justos y también es prometedora para otros contextos algorítmicos, como la justicia penal y el empleo.
Este es un momento peligroso. Los sistemas informáticos privados comercializados como inteligencia artificial (IA) se están introduciendo en nuestra vida e instituciones públicas, concentrando el poder industrial, agravando la marginación y configurando silenciosamente el acceso a los recursos y la información.
ins01.gif
A la hora de considerar cómo hacer frente a este ataque de la IA industrial, debemos reconocer en primer lugar que los «avances» de la IA celebrados en la última década no se debieron a avances científicos fundamentales en las técnicas de IA. Fueron y son principalmente el producto de una concentración significativa de datos y recursos de computación que residen en las manos de unas pocas grandes corporaciones tecnológicas. La IA moderna depende fundamentalmente de los recursos y las prácticas comerciales de las empresas, y nuestra creciente dependencia de dicha IA cede un poder desmesurado sobre nuestras vidas e instituciones a un puñado de empresas tecnológicas. También da a estas empresas una influencia significativa tanto en la dirección del desarrollo de la IA como en las instituciones académicas que desean investigarla. Esto significa que las empresas tecnológicas están sorprendentemente bien posicionadas para dar forma a lo que sabemos -y a lo que no sabemos- sobre la IA y el negocio que hay detrás, al mismo tiempo que sus productos de IA están trabajando para dar forma a nuestras vidas e instituciones.
volver al principio Perspectivas
→ El control de las grandes tecnológicas sobre los recursos de la IA hizo que las universidades y otras instituciones dependieran de estas empresas, creando una red de relaciones conflictivas que amenazan la libertad académica y nuestra capacidad para entender y regular estas tecnologías corporativas.
→ Para garantizar una investigación independiente y rigurosa y una defensa capaz de entender y comprobar estas tecnologías, y las empresas que están detrás de ellas, necesitamos organizarnos, dentro de la tecnología y dentro de la universidad.
Al examinar la historia de la influencia del ejército estadounidense sobre la investigación científica durante la Guerra Fría, vemos paralelismos con la influencia actual de la industria tecnológica sobre la IA. Esta historia también ofrece ejemplos alarmantes de la forma en que el dominio militar de EE.UU. trabajó para dar forma a la producción de conocimiento académico, y para castigar a los que disentían.
Hoy en día, la industria tecnológica se enfrenta a una presión reguladora cada vez mayor, y está aumentando sus esfuerzos para crear narrativas positivas para la tecnología y para silenciar y marginar a los críticos de la misma manera que el ejército de EE.UU. y sus aliados lo hicieron en el pasado. En conjunto, vemos que el dominio de la industria tecnológica en la investigación y la producción de conocimientos sobre la IA coloca a los investigadores y defensores críticos dentro y fuera del ámbito académico en una posición traicionera. Esto amenaza con privar a las comunidades de primera línea, a los responsables políticos y al público de conocimientos vitales sobre los costes y las consecuencias de la IA y la industria responsable de ella, justo en el momento en que este trabajo es más necesario.
Al revisar el alcance de la influencia actual de las grandes empresas tecnológicas sobre la IA y la investigación en IA, es útil comenzar con una breve historia del actual giro hacia la IA. Dado que el campo de la IA tiene casi 70 años y ha pasado por varios «inviernos de la IA», ¿por qué la IA se hizo grande en la última década? ¿Y de qué hablamos cuando hablamos de IA? La respuesta a estas preguntas pone de manifiesto la mutabilidad del término IA. También centra nuestra atención en la centralidad de los recursos corporativos concentrados en el actual auge de la IA, y en cómo el control monopolístico de estos recursos dio a un puñado de empresas tecnológicas la autoridad para (re)definir el campo de la IA, al tiempo que encerraba el conocimiento sobre los sistemas de IA tras el secreto corporativo.
Las empresas tecnológicas están sorprendentemente bien posicionadas para dar forma a lo que sabemos -y lo que no sabemos- sobre la IA y el negocio que hay detrás, al mismo tiempo que sus productos de IA están trabajando para dar forma a nuestras vidas e instituciones.
En 2012, un equipo de investigación con sede en Toronto creó un algoritmo llamado AlexNet que ganó el reto de reconocimiento visual a gran escala de ImageNet. Esto marcó un momento clave en la historia reciente de la IA y fue un gran acontecimiento en la industria tecnológica. Demostró que el aprendizaje automático supervisado era sorprendentemente eficaz en el reconocimiento predictivo de patrones cuando se entrenaba utilizando una potencia computacional significativa y cantidades masivas de datos etiquetados [1]. El algoritmo AlexNet se basaba en técnicas de aprendizaje automático que tenían casi dos décadas de antigüedad. Pero no fue el algoritmo lo que supuso un gran avance: fue lo que el algoritmo podía hacer cuando se combinaba con datos a gran escala y recursos computacionales.
AlexNet trazó un camino a seguir para las grandes empresas tecnológicas que buscan cimentar y ampliar su poder. Los recursos de los que dependía el éxito de AlexNet eran los que las grandes empresas tecnológicas ya controlaban: una vasta infraestructura computacional, cantidades masivas de datos (y sistemas para procesarlos y almacenarlos), un alcance arraigado en el mercado que garantizaba la recopilación persistente de datos, y el capital para contratar y retener el escaso talento. Yoshua Bengio, uno de los precursores de la investigación en IA, lo expresó de forma sencilla: «La potencia [informática], la experiencia y los datos están concentrados en manos de unas pocas empresas» [2].
El año 2012 mostró el potencial comercial del aprendizaje automático supervisado, y el poder del término IA como