Confiar en la IA en medicina
https://www.ku.de/en/news/trusting-in-ai-in-medicine
Las tareas monótonas consumen mucho tiempo y cansan al ser humano. El hecho de que médicos experimentados evalúen docenas de mamografías puede tener el efecto secundario no deseado de que se pasen por alto detalles pequeños pero relevantes para el diagnóstico. La aplicación de la IA en este campo puede aliviar a los humanos de esta carga y liberar su capacidad de decisión. "Esto se basa en el supuesto de que los expertos humanos deben ser capaces de confiar en el sistema de IA. Esta confianza, sin embargo, puede llevar al médico a no reevaluar críticamente la decisión de la IA", afirma el Prof. Dr. Marc Aubreville. Incluso los sistemas que se utilizan habitualmente en el ámbito médico no son infalibles. Al fin y al cabo, esa es la razón por la que en todos los procedimientos los humanos deben ser la última autoridad en la cadena de toma de decisiones.
Fritz
Prof. Dr. Alexis Fritz, titular de la Cátedra de Teología Moral de la KU
Pero, ¿es esto suficiente para establecer un grado fiable de responsabilidad en la interacción entre humanos y máquinas? "El enfoque más sencillo, que pretende introducir a un humano en el proceso sólo cuando haya que rectificar decisiones erróneas, es demasiado ingenuo", dice el Prof. Dr. Alexis Fritz. Al igual que los humanos se sienten menos responsables cuando han tomado una decisión en cooperación con otros humanos, los estudios han demostrado que lo mismo ocurre si los responsables humanos han sido asesorados por un sistema que hace recomendaciones. El profesor Dr. Matthias Uhl resume los resultados de sus propios estudios empíricos de la siguiente manera: "En diferentes contextos moralmente relevantes de la toma de decisiones hemos visto que los humanos siguen las recomendaciones de la IA, incluso si les damos buenas razones para dudar de las recomendaciones del sistema, por ejemplo, porque el sistema está entrenado con datos de mala calidad".
"Visto desde una perspectiva ética, limitarse a optimizar técnicamente los sistemas de IA es un enfoque demasiado limitado. Por eso queremos comparar el primer escenario con una situación en la que el primer paso no sea una recomendación de la IA. En cambio, un médico real ha hecho un diagnóstico, que sólo en un segundo paso es validado por la inteligencia artificial", dice el profesor Fritz. Explorará los requisitos normativos que ayudan a los responsables de la toma de decisiones a seguir siendo conscientes de su agencia, lo que les hace transferir menos responsabilidad a una inteligencia artificial. Para ello, se están recopilando y analizando los estudios existentes sobre las ramificaciones éticas de la interacción entre médicos y sistemas basados en la inteligencia artificial. Los diferentes conceptos de responsabilidad y rendición de cuentas como parte de la práctica médica se evaluarán en talleres y entrevistas cualitativas con médicos e ingenieros. Entre otras cosas, la relación entre el médico y el paciente también jugará un papel importante. Los médicos, por ejemplo, ¿sienten que consultar un sistema de recomendación cuestiona su autoridad frente a los pacientes?
*** Translated with www.DeepL.com/Translator (free version) ***
Comentarios
Publicar un comentario