Los modelos de IA siguen siendo racistas, incluso con un entrenamiento más equilibrado

https://www.theregister.com/2022/05/01/ai_models_racist/?s=03

Los algoritmos de inteligencia artificial pueden estar cargados de prejuicios raciales, incluso si se entrenan con datos más representativos de diferentes grupos étnicos, según una nueva investigación.


Un equipo internacional de investigadores analizó la precisión de los algoritmos a la hora de predecir diversos comportamientos cognitivos y mediciones de salud a partir de escáneres cerebrales de IRMf, como la memoria, el estado de ánimo e incluso la fuerza de agarre. Los conjuntos de datos médicos suelen estar sesgados: no se recogen a partir de una muestra lo suficientemente diversa, y ciertos grupos de la población quedan fuera o están mal representados. 


No es de extrañar que los modelos predictivos que tratan de detectar el cáncer de piel, por ejemplo, no sean tan eficaces cuando se analizan los tonos de piel más oscuros que los más claros. Los conjuntos de datos sesgados suelen ser el origen de que los modelos de IA también lo sean. Pero un artículo publicado en Science Advances ha descubierto que estos comportamientos no deseados en los algoritmos pueden persistir incluso si se entrenan en conjuntos de datos que son más justos y diversos.


El equipo llevó a cabo una serie de experimentos con dos conjuntos de datos que contenían decenas de miles de escaneos de fMRI de los cerebros de las personas, incluidos los datos del Proyecto Conectoma Humano y el Desarrollo Cognitivo del Cerebro de los Adolescentes. Para comprobar el impacto de las disparidades raciales en el rendimiento de los modelos predictivos, intentaron minimizar el impacto que otras variables, como la edad o el sexo, podrían tener en la precisión.


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje