Creer en las cajas negras: el aprendizaje automático para la atención sanitaria no necesita ser explicable para estar basado en la evidencia

https://www.sciencedirect.com/science/article/abs/pii/S0895435621003541

Examinar el papel de la explicabilidad en el aprendizaje automático para la atención sanitaria (MLHC), y su necesidad e importancia con respecto a la aplicación efectiva y ética de MLHC.


Diseño y entorno del estudio

Este comentario se centra en el creciente y dinámico corpus de literatura sobre el uso de la MLHC y la inteligencia artificial (IA) en medicina, que proporciona el contexto para una revisión narrativa centrada en los argumentos presentados a favor y en contra de la explicabilidad en la MLHC.


Resultados

Descubrimos que las preocupaciones relativas a la explicabilidad no se limitan a la MLHC, sino que se extienden a numerosas intervenciones terapéuticas bien validadas, así como al propio juicio clínico humano. Examinamos el papel de la medicina basada en la evidencia en la evaluación de tratamientos y tecnologías inexplicables, y destacamos la analogía entre el concepto de explicabilidad en la MLHC y el concepto relacionado de razonamiento mecanicista en la medicina basada en la evidencia.


Conclusión

En última instancia, concluimos que el valor de la explicabilidad en la MLHC no es intrínseco, sino que es instrumental para lograr imperativos mayores como el rendimiento y la confianza. Advertimos contra la búsqueda inflexible de la explicabilidad, y abogamos en cambio por el desarrollo de métodos empíricos robustos para evaluar con éxito sistemas algorítmicos cada vez más inexplicables.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social