Creer en las cajas negras: el aprendizaje automático para la atención sanitaria no necesita ser explicable para estar basado en la evidencia

https://pubmed.ncbi.nlm.nih.gov/34748907/

Resumen

Objetivo: Examinar el papel de la explicabilidad en el aprendizaje automático para la asistencia sanitaria (MLHC), así como su necesidad e importancia con respecto a la aplicación eficaz y ética del MLHC.


Diseño y entorno del estudio: Este comentario se centra en el creciente y dinámico corpus de literatura sobre el uso de la MLHC y la inteligencia artificial (IA) en medicina, que proporciona el contexto para una revisión narrativa centrada en los argumentos presentados a favor y en contra de la explicabilidad en la MLHC.


Resultados: Encontramos que las preocupaciones relativas a la explicabilidad no se limitan a la MLHC, sino que se extienden a numerosas intervenciones terapéuticas bien validadas, así como al propio juicio clínico humano. Examinamos el papel de la medicina basada en la evidencia en la evaluación de tratamientos y tecnologías inexplicables, y destacamos la analogía entre el concepto de explicabilidad en la MLHC y el concepto relacionado de razonamiento mecanicista en la medicina basada en la evidencia.


Conclusión: En última instancia, concluimos que el valor de la explicabilidad en la MLHC no es intrínseco, sino que es instrumental para lograr imperativos mayores como el rendimiento y la confianza. Advertimos contra la búsqueda inflexible de la explicabilidad, y abogamos en cambio por el desarrollo de métodos empíricos robustos para evaluar con éxito sistemas algorítmicos cada vez más inexplicables.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social