El sesgo geográfico en las herramientas de inteligencia artificial médica

 Hace solo unas décadas, los científicos no pensaban mucho en la diversidad al estudiar nuevos medicamentos. La mayoría de los ensayos clínicos incluyeron principalmente a hombres blancos que vivían cerca de institutos de investigación urbanos, con el supuesto de que cualquier hallazgo se aplicaría por igual al resto del país. Investigaciones posteriores demostraron que esa suposición era falsa; ejemplos acumulados de medicamentos que luego se determinó que eran menos efectivos o que causaban más efectos secundarios en poblaciones que estaban subrepresentadas en el estudio inicial.

Para abordar estas desigualdades, los requisitos federales para la participación en la investigación médica se ampliaron en la década de 1990, y los ensayos clínicos ahora intentan inscribir a poblaciones diversas desde el inicio del estudio.

Pero ahora corremos el riesgo de repetir estos mismos errores a medida que desarrollamos nuevas tecnologías, como la IA. Investigadores de la Universidad de Stanford examinaron las aplicaciones clínicas del aprendizaje automático para encontrar que la mayoría de los algoritmos están entrenados en conjuntos de datos de pacientes en solo tres áreas geográficas, y que la mayoría de los estados no tienen ningún paciente representado.

https://hai.stanford.edu/blog/geographic-bias-medical-ai-tools

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje