Diseña un sitio como este con WordPress.com
Comenzar

Creer en las cajas negras: el aprendizaje automático para la atención sanitaria no necesita ser explicable para estar basado en la evidencia

https://pubmed.ncbi.nlm.nih.gov/34748907/

Resumen

Objetivo: Examinar el papel de la explicabilidad en el aprendizaje automático para la asistencia sanitaria (MLHC), así como su necesidad e importancia con respecto a la aplicación eficaz y ética del MLHC.

Diseño y entorno del estudio: Este comentario se centra en el creciente y dinámico corpus de literatura sobre el uso de la MLHC y la inteligencia artificial (IA) en medicina, que proporciona el contexto para una revisión narrativa centrada en los argumentos presentados a favor y en contra de la explicabilidad en la MLHC.

Resultados: Encontramos que las preocupaciones relativas a la explicabilidad no se limitan a la MLHC, sino que se extienden a numerosas intervenciones terapéuticas bien validadas, así como al propio juicio clínico humano. Examinamos el papel de la medicina basada en la evidencia en la evaluación de tratamientos y tecnologías inexplicables, y destacamos la analogía entre el concepto de explicabilidad en la MLHC y el concepto relacionado de razonamiento mecanicista en la medicina basada en la evidencia.

Conclusión: En última instancia, concluimos que el valor de la explicabilidad en la MLHC no es intrínseco, sino que es instrumental para lograr imperativos mayores como el rendimiento y la confianza. Advertimos contra la búsqueda inflexible de la explicabilidad, y abogamos en cambio por el desarrollo de métodos empíricos robustos para evaluar con éxito sistemas algorítmicos cada vez más inexplicables.

Anuncio publicitario

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

A %d blogueros les gusta esto: