Ensayo sobre la interacción hombre-máquina.
Etiqueta: Colaboracion IA Humanos
Robots sociales y empatía: los efectos nocivos de obtener siempre lo que queremos
Cuando la mejor IA no es necesariamente la mejor IA
El artículo presenta el modelo de Susan Athey, para consideración de las organizaciones al usar la IA.
- Si un sistema de IA funciona perfectamente todo el tiempo, puede reemplazar al humano. Pero hay inconvenientes. Además de tomar el trabajo de una persona, la IA de reemplazo tiene que estar extremadamente bien entrenada, lo que puede implicar una inversión prohibitivamente costosa en datos de capacitación.
- Cuando la IA es imperfecta o «poco confiable», los humanos juegan un papel clave en la captura y corrección de los errores de la IA, compensando parcialmente las imperfecciones de la IA con un mayor esfuerzo. Es muy probable que este escenario produzca resultados óptimos cuando la IA alcanza el punto óptimo donde toma malas decisiones con la frecuencia suficiente para mantener a los compañeros de trabajo humanos alerta.
- Con la IA de aumento, los empleados conservan el poder de decisión mientras que una IA de alta calidad aumenta su esfuerzo sin diezmar su motivación. Los ejemplos de IA aumentativa pueden incluir sistemas que, de manera imparcial, revisan y clasifican las solicitudes de préstamos o solicitudes de empleo, pero no toman decisiones de préstamo o contratación. Sin embargo, los prejuicios humanos tendrán una mayor influencia en las decisiones en este escenario.
- La IA antagónica es quizás la clasificación menos intuitiva. Surge en situaciones donde hay una IA imperfecta pero valiosa, el esfuerzo humano es esencial pero poco incentivado, y el humano retiene los derechos de decisión cuando el humano y la IA entran en conflicto. En tales casos, propone el modelo de Athey, el mejor diseño de IA podría ser uno que produzca resultados que entren en conflicto con las preferencias de los agentes humanos, motivándolos de manera antagónica a esforzarse para que puedan influir en las decisiones. «Las personas van a estar, al margen, más motivadas si no están tan contentas con el resultado cuando no prestan atención», dice Athey.
La inteligencia artificial está experimentando dolores de crecimiento
Mover la IA de casos de uso restringidos a implementaciones más amplias es «trabajo duro», dice Chui, «no solo porque los problemas tecnológicos son difíciles sino también porque la gestión del cambio es realmente difícil. Hay una razón por la cual esto no sucede más rápido «.
Formando equipo con la IA
Crear una buena experiencia de usuario de inteligencia artificial (IA) no es fácil. Todos los que usan autocorrección mientras escriben saben que, si bien el sistema generalmente hace un buen trabajo al actuar y corregir errores, a veces comete errores extraños. Lo mismo es cierto para el piloto automático en un Tesla, pero desafortunadamente las apuestas son mucho más altas en el camino que cuando se está sentado detrás de una computadora.
Cómo Eslovenia es líder mundial en IA centrada en el ser humano
Eslovenia es una potencia mundial en IA, a pesar de ser un país de os millones de habitantes. En los 1950 se fundó el Jozef Stefan Institute (JSI) para investigación científica. En los 1970 Eslovenia fue gran defensora de la IA e hizo grandes inversiones en tecnología precursoras como redes neuronales, modelado de datos y análisis estadístico. Eslovenia se ha convertido en un faro académico de la IA.
A principios de 2020 Eslovenia extendió el JSI con el International Research Center on Artificial Intelligence (IRCAI).
El artículo describe los tres primeros casos de uso del IRCAI:
- Liberación del modelo «gemelo digital» de Social Awareness to Augment Decision Making. Es una de las herramientas más avanzadas en diversas aplicaciones, entre ellas la pandemia del coronavirus
- Impulso de Soluciones el Coronaviris mediante Nuevas Capacidades de Visualización analítica
- Defensa de la conciencia situacional para el monitoreo global y los sistemas predictivos
IA Responsable, Microsoft
Esta entrada de blog de Microsoft es una colección de recursos sobre los temas críticos para una IA rsponsable:
- Fairness
- Transparencia
- Reliability Safety
- Colaboración entre humanos e IA
- Privacidad
Para cada uno de los temas aporta una definición y enlaces a recursos relevantes sobre el tema
https://www.microsoft.com/en-us/research/blog/research-collection-responsible-ai/
Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)
¿Derechos de los robots? Hablemos mejor de Bienestar Humano
https://arxiv.org/abs/2001.05046v1