Auditoría ética de los sistemas automatizados de toma de decisiones: Naturaleza, alcance y limitaciones

https://link.springer.com/article/10.1007/s11948-021-00319-4

Cada vez se automatizan más las decisiones importantes que afectan a la vida de las personas, a sus medios de subsistencia y al entorno natural. La delegación de tareas en los llamados sistemas automatizados de toma de decisiones puede mejorar la eficiencia y permitir nuevas soluciones. Sin embargo, estos beneficios van acompañados de retos éticos. Por ejemplo, los ADMS pueden producir resultados discriminatorios, violar la privacidad individual y socavar la autodeterminación humana. Por lo tanto, se necesitan nuevos mecanismos de gobernanza que ayuden a las organizaciones a diseñar y desplegar los ADMS de forma ética, permitiendo al mismo tiempo que la sociedad aproveche todos los beneficios económicos y sociales de la automatización. En este artículo examinamos la viabilidad y la eficacia de la auditoría basada en la ética (ABE) como mecanismo de gobernanza que permite a las organizaciones validar las afirmaciones hechas sobre sus ADMS. Basándonos en trabajos anteriores, definimos la ABE como un proceso estructurado mediante el cual se evalúa el comportamiento presente o pasado de una entidad para comprobar su coherencia con los principios o normas pertinentes. A continuación, ofrecemos tres contribuciones a la literatura existente. En primer lugar, ofrecemos una explicación teórica de cómo la ABE puede contribuir a la buena gobernanza promoviendo la regularidad y la transparencia de los procedimientos. En segundo lugar, proponemos siete criterios para diseñar y aplicar con éxito los procedimientos de la ABE. En tercer lugar, identificamos y discutimos las limitaciones conceptuales, técnicas, sociales, económicas, organizativas e institucionales asociadas a la ABE. Llegamos a la conclusión de que la ABE debe considerarse un componente integral de los enfoques multifacéticos de la gestión de los riesgos éticos que plantean las ADMS.

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje