Los defectos de las políticas que exigen la supervisión humana de los algoritmos gubernamentales
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3921216
Los responsables políticos de todo el mundo se plantean cada vez más cómo evitar que los usos gubernamentales de los algoritmos produzcan injusticias. Un mecanismo que se ha convertido en una pieza central de los esfuerzos globales para regular los algoritmos gubernamentales es exigir la supervisión humana de las decisiones algorítmicas. Sin embargo, la calidad funcional de este enfoque regulatorio no ha sido cuestionada a fondo. En este artículo, analizo 40 políticas que prescriben la supervisión humana de los algoritmos gubernamentales y descubro que adolecen de dos defectos significativos. En primer lugar, la evidencia sugiere que las personas son incapaces de realizar las funciones de supervisión deseadas. En segundo lugar, las políticas de supervisión humana legitiman el uso gubernamental de algoritmos defectuosos y controvertidos sin abordar los problemas fundamentales de estas herramientas. Por lo tanto, en lugar de proteger contra los daños potenciales de la toma de decisiones algorítmicas en el gobierno, las políticas de supervisión humana proporcionan una falsa sensación de seguridad en la adopción de algoritmos y permiten a los proveedores y organismos eludir la responsabilidad por los daños algorítmicos. A la luz de estos defectos, propongo un enfoque más riguroso para determinar si se incorporan algoritmos a la toma de decisiones del gobierno y cómo hacerlo. En primer lugar, los responsables políticos deben considerar críticamente si es apropiado utilizar un algoritmo en un contexto específico. En segundo lugar, antes de desplegar un algoritmo junto con la supervisión humana, los proveedores o los organismos deben realizar evaluaciones preliminares para determinar si las personas pueden supervisar eficazmente el algoritmo.
Comentarios
Publicar un comentario