Por qué la tecnología no puede resolver la equidad algorítmica (1/3): brechas entre cómo los científicos informáticos y los filósofos éticos definen la equidad

 A medida que los algoritmos de aprendizaje automático se utilizan cada vez más para informar decisiones críticas en dominios de alto impacto, ha aumentado la preocupación de que sus predicciones puedan discriminar injustamente en función de atributos legalmente protegidos, como la raza y el género. Los académicos han respondido introduciendo numerosas definiciones matemáticas de equidad para probar el algoritmo. Se han introducido varias herramientas para probar automáticamente las predicciones del algoritmo contra varias definiciones de equidad y proporcionar informes de "pasa / falla".

Sin embargo, estos esfuerzos no han logrado ningún consenso sobre cómo abordar el desafío de los resultados injustos en las decisiones algorítmicas. Dado que es matemáticamente imposible cumplir algunas de las condiciones de equidad simultáneamente, los informes a menudo proporcionan información contradictoria sobre la equidad del algoritmo. Las técnicas de “eliminación de sesgos” (pre, in y posprocesamiento) suponen que el sesgo “inaceptable” puede identificarse, separarse y eliminarse quirúrgicamente fácilmente, pero la realidad no es tan simple.

https://ukfinancialservicesinsights.deloitte.com/post/102gkg2/why-technology-cannot-solve-algorithmic-fairness-1-3-gaps-between-how-computer

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social