Cómo nuestros datos codifican el racismo sistemático

 A menudo me han dicho: "Los datos no mienten". Sin embargo, esa nunca ha sido mi experiencia. Para mí, los datos casi siempre mienten. Los resultados de búsqueda de imágenes de Google para "piel sana" muestran solo mujeres de piel clara, y una consulta sobre "chicas negras" todavía arroja pornografía. El conjunto de datos de caras de CelebA tiene etiquetas de "nariz grande" y "labios grandes" que se asignan de manera desproporcionada a rostros femeninos de piel más oscura como la mía. Los modelos entrenados por ImageNet me etiquetan como una "mala persona", un "adicto a las drogas" o un "fracasado". A los conjuntos de datos para detectar el cáncer de piel les faltan muestras de tipos de piel más oscuros.

La supremacía blanca a menudo aparece violentamente, en disparos en un Walmart abarrotado o en un servicio religioso, en el comentario agudo de una acusación alimentada por el odio o un empujón en la calle, pero a veces adopta una forma más sutil, como estas mentiras. Cuando aquellos de nosotros que construimos sistemas de IA continuamos permitiendo que la mentira descarada de la supremacía blanca se incruste en todo, desde cómo recopilamos datos hasta cómo definimos conjuntos de datos y cómo elegimos usarlos, significa una tolerancia inquietante.

Las personas que no son blancas no son atípicas. A nivel mundial, somos la norma, y ​​esto no parece que vaya a cambiar pronto. Los conjuntos de datos construidos tan específicamente en y para espacios en blanco representan la realidad construida, no la natural. Tener la precisión calculada en ausencia de mi experiencia vivida no solo me ofende, sino que también me pone en peligro real.

Datos corruptos

En un artículo de investigación titulado "Datos sucios, malas predicciones", la autora principal, Rashida Richardson, describe un escenario alarmante: los recintos policiales sospechosos o confirmados de haber participado en prácticas "corruptas, racistas o ilegales" continúan contribuyendo con sus datos al desarrollo de nuevos sistemas automatizados destinados a ayudar a los agentes a tomar decisiones policiales.

https://www.technologyreview.com/2020/12/10/1013617/racism-data-science-artificial-intelligence-ai-opinion/

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social