Recurso algorítmico: de explicaciones contrafácticas a intervenciones

Como el aprendizaje automático se usa cada vez más para informar la toma de decisiones consecuentes (por ejemplo, la fianza previa al juicio y la aprobación del préstamo), es importante explicar cómo el sistema llegó a su decisión y también sugerir acciones para lograr una decisión favorable. Las explicaciones contrafácticas - "cómo el mundo tendría (tendría que ser diferente) para que ocurriera un resultado deseable" - apuntan a satisfacer estos criterios. Los trabajos existentes se han centrado principalmente en diseñar algoritmos para obtener explicaciones contrafácticas para una amplia gama de configuraciones. Sin embargo, uno de los principales objetivos de "explicaciones como un medio para ayudar a un sujeto de datos a actuar en lugar de simplemente entender" se ha pasado por alto. En términos simples, las explicaciones contrafácticas informan a un individuo a dónde deben llegar, pero no cómo llegar allí. En este trabajo, confiamos en el razonamiento causal para prevenir el uso de explicaciones contrafácticas como un conjunto de acciones recomendables para el recurso. En cambio, proponemos un cambio de paradigma del recurso a través de explicaciones contrafácticas más cercanas para recurrir a través de intervenciones mínimas, moviendo el foco de las explicaciones a las recomendaciones. Finalmente, brindamos al lector una extensa discusión sobre cómo lograr un recurso realista más allá de las intervenciones estructurales.

https://arxiv.org/abs/2002.06278

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje