Silicon Valley pretende que el sesgo algorítmico es accidental. No lo es.

https://slate.com/technology/2021/07/silicon-valley-algorithmic-bias-structural-racism.html

A finales de junio, la revista MIT Technology Review informó sobre las formas en que algunos de los mayores sitios de búsqueda de empleo del mundo -incluidos LinkedIn, Monster y ZipRecruiter- han intentado eliminar los prejuicios en su software de entrevistas de trabajo con inteligencia artificial. Estos remedios se produjeron después de incidentes en los que se descubrió que el software de videoentrevista de inteligencia artificial discriminaba a las personas con discapacidades que afectan a la expresión facial y mostraba prejuicios contra los candidatos identificados como mujeres.


Cuando el software de inteligencia artificial produce resultados diferenciales y desiguales para los grupos marginados en función de la raza, el género y el estatus socioeconómico, Silicon Valley se apresura a reconocer los errores, aplicar correcciones técnicas y disculparse por los resultados diferenciales. Lo vimos cuando Twitter se disculpó después de que se demostrara que su algoritmo de captura de imágenes se centraba automáticamente en los rostros blancos en lugar de los negros y cuando TikTok expresó su arrepentimiento por un fallo técnico que suprimió el hashtag Black Lives Matter. Afirman que estos incidentes son momentos involuntarios de sesgo inconsciente o de datos de entrenamiento erróneos que se extienden a un algoritmo; que el sesgo es un error, no una característica.


PUBLICIDAD

Pero el hecho de que estos incidentes sigan ocurriendo en todos los productos y empresas sugiere que la discriminación contra los grupos marginados es en realidad fundamental para el funcionamiento de la tecnología. Es hora de que veamos el desarrollo de productos tecnológicos discriminatorios como un acto intencionado realizado por los ejecutivos de Silicon Valley, mayoritariamente blancos y de sexo masculino, para mantener los sistemas de racismo, misoginia, capacidad, clase y otros ejes de opresión que privilegian sus intereses y crean beneficios extraordinarios para sus empresas. Y aunque estas tecnologías se hacen parecer benévolas e inofensivas, son en cambio emblemáticas de lo que Ruha Benjamin, profesor de estudios afroamericanos en la Universidad de Princeton y autor de Race After Technology, denomina "El nuevo código Jim": nuevas tecnologías que reproducen las desigualdades existentes al tiempo que parecen más progresistas que los sistemas discriminatorios de una época anterior.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social