Retos conceptuales del aprendizaje automático interpretable

https://link.springer.com/article/10.1007/s11229-022-03485-5#Abs1

A medida que el aprendizaje automático se ha ido introduciendo en cada vez más sectores de la vida pública y privada, ha aumentado la demanda de explicabilidad de los algoritmos. ¿Cómo podemos hacer que las predicciones de los complejos modelos estadísticos sean más inteligibles para los usuarios finales? Para responder a esta urgente cuestión ha surgido una subdisciplina de la informática conocida como aprendizaje automático interpretable (IML). Se han propuesto numerosos métodos influyentes, desde aproximaciones lineales locales hasta listas de reglas y contrafactuales. En este artículo, destaco tres retos conceptuales que los autores de este campo pasan por alto en gran medida. Sostengo que la gran mayoría de los algoritmos de LMI están plagados de (1) ambigüedad con respecto a su verdadero objetivo; (2) un desprecio por las tasas de error y las pruebas severas; y (3) un énfasis en el producto sobre el proceso. Cada uno de estos puntos se desarrolla ampliamente, basándose en los debates pertinentes de la epistemología y la filosofía de la ciencia. Se examinan ejemplos y contraejemplos de la LMI, demostrando cómo la falta de reconocimiento de estos problemas puede dar lugar a explicaciones contraintuitivas y potencialmente engañosas. Sin un mayor cuidado de los fundamentos conceptuales de la LMI, los futuros trabajos en este ámbito están condenados a repetir los mismos errores.


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje