Responsabilidad algorítmica para el sector público: aprender de la primera ola de implementación de políticas

https://medium.com/@AINowInstitute/how-can-governments-keep-algorithms-accountable-a-look-at-the-first-wave-of-policy-implementation-312f4549469b

Los gobiernos recurren cada vez más a algoritmos para automatizar la toma de decisiones para los servicios públicos. Los algoritmos podrían, por ejemplo, usarse para predecir futuros delincuentes, tomar decisiones sobre los derechos de asistencia social, detectar fraudes por desempleo, decidir adónde enviar a la policía o ayudar a la planificación urbana *. Sin embargo, la evidencia creciente sugiere que estos sistemas pueden causar daños y, con frecuencia, carecen de transparencia en su implementación, incluida la opacidad en torno a las decisiones sobre si se deben usar y por qué. Muchos sistemas algorítmicos carecen de responsabilidad política, ya que replican, amplifican y naturalizan la discriminación contra las personas que han sufrido la peor parte de la opresión y la discriminación histórica. También facilitan nuevas formas de intrusión en la privacidad, produciendo determinaciones sobre las personas que tienen ecos duraderos a lo largo de la vida de las personas. Estas determinaciones pueden ser difíciles de impugnar y, a menudo, son ilegibles para aquellos cuyas vidas moldean. Esto ha provocado una acalorada oposición en todos los continentes por parte de investigadores, grupos de la sociedad civil, trabajadores tecnológicos organizados y comunidades directamente afectadas por estos sistemas.

En reconocimiento de esta crisis, los responsables de la formulación de políticas han recurrido a herramientas normativas y de políticas, con la esperanza de garantizar la "responsabilidad algorítmica" en todos los países y contextos. Con muchos desafíos y preguntas abiertas que surgen de sus primeras etapas de implementación, AI Now Institute, Ada Lovelace Institute y Open Government Partnership (OGP) se están asociando para lanzar el primer estudio global que evalúa esta ola inicial de política de responsabilidad algorítmica.

Si bien ha habido algunos esfuerzos para evaluar la responsabilidad algorítmica dentro de instituciones o contextos particulares (por ejemplo, Informe Sombra al Grupo de Trabajo del Sistema de Decisión Automatizado de la Ciudad de Nueva York y la red informal de 'Algoritmos Abiertos' de OGP), ha habido pocos estudios sistemáticos y entre jurisdicciones de la implementación de estas políticas. Este proyecto tiene como objetivo comprender los desafíos y éxitos de las políticas de rendición de cuentas algorítmicas centrándose en las experiencias de los actores e instituciones directamente responsables de su implementación en el terreno.

Combinando el trabajo de nuestras respectivas organizaciones en el campo, este proyecto proporcionará una guía práctica a los encargados de formular políticas y burócratas de primera línea al frente de la última ola de políticas de rendición de cuentas de algoritmos.

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje