Se han construido cientos de herramientas de inteligencia artificial para atrapar a los cóvidos. Ninguna de ellas ha ayudado
Cuando el covid-19 asoló Europa en marzo de 2020, los hospitales se vieron inmersos en una crisis sanitaria que aún no se comprendía bien. "Los médicos no tenían ni idea de cómo tratar a estos pacientes", dice Laure Wynants, epidemióloga de la Universidad de Maastricht (Países Bajos), que estudia las herramientas de predicción.
Pero había datos procedentes de China, que llevaba cuatro meses de ventaja en la carrera para vencer la pandemia. Si se pudieran entrenar algoritmos de aprendizaje automático con esos datos para ayudar a los médicos a entender lo que estaban viendo y tomar decisiones, se podrían salvar vidas. "Pensé: 'Si hay algún momento en que la IA puede demostrar su utilidad, es ahora'", dice Wynants. "Tenía muchas esperanzas".
Historia relacionada
La IA médica de Google fue súper precisa en un laboratorio. La vida real fue una historia diferente.
Si la IA va a suponer realmente una diferencia para los pacientes, tenemos que saber cómo funciona cuando los humanos reales le ponen las manos encima, en situaciones reales.
Esto nunca ocurrió, pero no por falta de esfuerzo. Los equipos de investigación de todo el mundo se pusieron manos a la obra. La comunidad de la IA, en particular, se apresuró a desarrollar un software que muchos creían que permitiría a los hospitales diagnosticar o clasificar a los pacientes con mayor rapidez, aportando un apoyo muy necesario a las primeras líneas, en teoría.
Al final, se desarrollaron cientos de herramientas predictivas. Ninguna de ellas supuso una diferencia real, y algunas fueron potencialmente perjudiciales.
Ésa es la conclusión condenatoria de múltiples estudios publicados en los últimos meses. En junio, el Instituto Turing, el centro nacional del Reino Unido para la ciencia de los datos y la IA, publicó un informe que resumía los debates de una serie de talleres que celebró a finales de 2020. El claro consenso era que las herramientas de IA habían tenido poco o ningún impacto en la lucha contra el covirus.
No son aptas para el uso clínico
Esto se hace eco de los resultados de dos grandes estudios que evaluaron cientos de herramientas de predicción desarrolladas el año pasado. Wynants es la autora principal de uno de ellos, una revisión publicada en el British Medical Journal que sigue actualizándose a medida que se publican nuevas herramientas y se prueban las existentes. Ella y sus colegas examinaron 232 algoritmos para diagnosticar a los pacientes o predecir el grado de enfermedad que podrían padecer. Descubrieron que ninguno de ellos era apto para el uso clínico. Sólo dos han sido señalados como lo suficientemente prometedores para ser probados en el futuro.
"Es impactante", dice Wynants. "Me adentré en él con algunas preocupaciones, pero esto superó mis temores".
El estudio de Wynants está respaldado por otra gran revisión realizada por Derek Driggs, investigador de aprendizaje automático de la Universidad de Cambridge, y sus colegas, y publicada en Nature Machine Intelligence. Este equipo se centró en los modelos de aprendizaje profundo para diagnosticar el covirus y predecir el riesgo de los pacientes a partir de imágenes médicas, como las radiografías de tórax y las tomografías computarizadas (TC) de tórax. Examinaron 415 herramientas publicadas y, al igual que Wynants y sus colegas, concluyeron que ninguna era apta para el uso clínico.
Historia relacionada
Los médicos utilizan la IA para clasificar a los pacientes con covagancia 19. Las herramientas pueden llegar para quedarse
Ante la escasez de personal y la abrumadora carga de pacientes, un número creciente de hospitales está recurriendo a herramientas automatizadas para ayudarles a gestionar la pandemia.
"Esta pandemia fue una gran prueba para la IA y la medicina", dice Driggs, que está trabajando en una herramienta de aprendizaje automático para ayudar a los médicos durante la pandemia. "Habría servido de mucho para poner al público de nuestro lado", dice. "Pero no creo que hayamos superado esa prueba".
Ambos equipos descubrieron que los investigadores repetían los mismos errores básicos en la forma de entrenar o probar sus herramientas. Las suposiciones incorrectas sobre los datos a menudo significaban que los modelos entrenados no funcionaban como se decía.
Wynants y Driggs siguen creyendo que la IA tiene potencial para ayudar. Pero les preocupa que pueda ser perjudicial si se construye de forma incorrecta, ya que podría pasar por alto diagnósticos o subestimar el riesgo de los pacientes vulnerables. "Hay mucha exageración sobre los modelos de aprendizaje automático y lo que pueden hacer hoy en día", dice Driggs.
*** Translated with www.DeepL.com/Translator (free version) ***
Comentarios
Publicar un comentario