Creer en las cajas negras: el aprendizaje automático para la atención sanitaria no necesita ser explicable para estar basado en la evidencia
https://www.sciencedirect.com/science/article/abs/pii/S0895435621003541
Examinar el papel de la explicabilidad en el aprendizaje automático para la atención sanitaria (MLHC), y su necesidad e importancia con respecto a la aplicación efectiva y ética de MLHC.
Diseño y entorno del estudio
Este comentario se centra en el creciente y dinámico corpus de literatura sobre el uso de la MLHC y la inteligencia artificial (IA) en medicina, que proporciona el contexto para una revisión narrativa centrada en los argumentos presentados a favor y en contra de la explicabilidad en la MLHC.
Resultados
Descubrimos que las preocupaciones relativas a la explicabilidad no se limitan a la MLHC, sino que se extienden a numerosas intervenciones terapéuticas bien validadas, así como al propio juicio clínico humano. Examinamos el papel de la medicina basada en la evidencia en la evaluación de tratamientos y tecnologías inexplicables, y destacamos la analogía entre el concepto de explicabilidad en la MLHC y el concepto relacionado de razonamiento mecanicista en la medicina basada en la evidencia.
Conclusión
En última instancia, concluimos que el valor de la explicabilidad en la MLHC no es intrínseco, sino que es instrumental para lograr imperativos mayores como el rendimiento y la confianza. Advertimos contra la búsqueda inflexible de la explicabilidad, y abogamos en cambio por el desarrollo de métodos empíricos robustos para evaluar con éxito sistemas algorítmicos cada vez más inexplicables.
Comentarios
Publicar un comentario