Cómo hacer que los algoritmos sean justos cuando no sabes lo que hacen
Las decisiones que cambian la vida están sucediendo en la oscuridad. Los algoritmos de aprendizaje automático ahora determinan las decisiones desde las solicitudes de préstamos hasta los diagnósticos de cáncer. En Francia, colocan a los niños en las escuelas. En Estados Unidos, determinan las penas de prisión. Pueden establecer puntajes de crédito y tasas de seguro, y decidir el destino de los candidatos a puestos de trabajo y los solicitantes universitarios.
Pero estos programas a menudo no rinden cuentas. Para llegar a sus decisiones, los algoritmos de aprendizaje automático construyen automáticamente modelos complejos basados en grandes conjuntos de datos, por lo que incluso las personas que los utilizan pueden no ser capaces de explicar por qué o cómo se llega a una conclusión en particular. Son una caja negra.
Los contrafactuales son declaraciones de cómo el mundo tendría que ser diferente para que ocurra un resultado diferente: si ganara 10.000 libras esterlinas más al año, habría obtenido la hipoteca; si tuvieras un título un poco mejor, habrías conseguido el trabajo.
“Si no obtengo un préstamo, no necesariamente me importa tanto cómo funciona el algoritmo. De hecho, solo quiero saber por qué no obtuve el préstamo y tener alguna orientación sobre cómo mejorar ", dice Wachter. Las explicaciones contrafactuales pueden proporcionar esto al encontrar el cambio más pequeño posible que hubiera llevado al modelo a predecir un resultado diferente.
Fundamentalmente, las explicaciones contrafácticas dan respuestas sobre por qué se tomó una decisión sin revelar las entrañas del algoritmo. La caja negra permanece sellada. “Encuentra el punto óptimo entre información significativa y la protección de los derechos de propiedad intelectual y secretos comerciales”, dice Wachter.
https://www.wired.co.uk/article/ai-bias-black-box-sandra-wachter?s=03
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).
Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.
Comentarios
Publicar un comentario