Una IA descubre racismo involuntario en una prueba médica estándar

 En los últimos años, distintas investigaciones han demostrado que el aprendizaje profundo puede igualar el desempeño de expertos humanos a la hora de interpretar imágenes médicas para la detección temprana del cáncer y el diagnóstico de enfermedades oculares. Pero también hay motivos para la cautela. Otra investigación ha señalado que el aprendizaje profundo tiende a perpetuar la discriminación. Si el sistema de atención médica ya está plagado de disparidades, las apps de aprendizaje profundo hechas sin cuidado podrían empeorar aún más la situación.

Un nuevo artículo publicado en Nature Medicine propone una forma de desarrollar algoritmos médicos capaz de ayudar a revertirla desigualdad existente, en lugar de exacerbarla. Según el profesor asociado de la Universidad de California en Berkeley (EE. UU.) que supervisó la investigación, Ziad Obermeyer, la clave es dejar de entrenar los algoritmos con el objetivo de que igualen el desempeño de los expertos humanos.

El artículo analiza un ejemplo clínico específico de las diferencias que existen en el tratamiento de la osteoartritis de rodilla, una enfermedad que causa dolor crónico. Evaluar el nivel de dolor ayuda a los médicos a prescribir el tratamiento adecuado, que puede incluir fisioterapia, medicamentos y cirugía. Esto lo suele llevar a cabo un radiólogo que revisa una radiografía de la rodilla y califica el dolor del paciente en la escala de Kellgren-Lawrence (KLG), que calcula los niveles de dolor en función de la presencia de diferentes características radiográficas, como el grado de la pérdida de cartílago o el daño estructural.

Pero los datos recopilados por el Instituto Nacional de Salud de EE. UU. han encontrado que los médicos que utilizan este método puntúan sistemáticamente el dolor de los pacientes negros en una medida mucho menos grave de lo que ellos mismos aseguran estar experimentando.

Los pacientes informan de sus niveles de dolor mediante un cuestionario en el que se les pregunta cuánto les duele al realizar distintas acciones, como enderezar completamente la rodilla. Pero los niveles de dolor manifestados por los propios pacientes tienen menos peso que la puntuación KLG que emite el radiólogo para prescribir el tratamiento. En otras palabras, los pacientes de raza negra que muestran la misma cantidad de pérdida de cartílago que los pacientes de raza blanca manifiestan niveles más altos de dolor.

Esto es algo que lleva tiempo incomodando a los expertos médicos. Una de sus hipótesis consistía en que los pacientes de raza negra podrían estar expresando niveles más altos de dolor para que los médicos los traten con mayor seriedad. Pero hay una explicación alternativa. La propia metodología KLG podría estar sesgada, ya que se desarrolló hace varias décadas con poblaciones británicas blancas.

https://www.technologyreview.es/s/13102/una-ia-descubre-racismo-involuntario-en-una-prueba-medica-estandar

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social