Por qué la tecnología no puede resolver la equidad algorítmica (1/3): brechas entre cómo los científicos informáticos y los filósofos éticos definen la equidad

 A medida que los algoritmos de aprendizaje automático se utilizan cada vez más para informar decisiones críticas en dominios de alto impacto, ha aumentado la preocupación de que sus predicciones puedan discriminar injustamente en función de atributos legalmente protegidos, como la raza y el género. Los académicos han respondido introduciendo numerosas definiciones matemáticas de equidad para probar el algoritmo. Se han introducido varias herramientas para probar automáticamente las predicciones del algoritmo contra varias definiciones de equidad y proporcionar informes de "pasa / falla".

Sin embargo, estos esfuerzos no han logrado ningún consenso sobre cómo abordar el desafío de los resultados injustos en las decisiones algorítmicas. Dado que es matemáticamente imposible cumplir algunas de las condiciones de equidad simultáneamente, los informes a menudo proporcionan información contradictoria sobre la equidad del algoritmo. Las técnicas de “eliminación de sesgos” (pre, in y posprocesamiento) suponen que el sesgo “inaceptable” puede identificarse, separarse y eliminarse quirúrgicamente fácilmente, pero la realidad no es tan simple.

https://ukfinancialservicesinsights.deloitte.com/post/102gkg2/why-technology-cannot-solve-algorithmic-fairness-1-3-gaps-between-how-computer

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje