La nueva norma de transparencia de la IA del Reino Unido es un paso más hacia una IA responsable
El gobierno británico anunció la semana pasada una nueva norma de transparencia algorítmica. La medida llega tras un año en el que el programa Test and Trace del Reino Unido podía hacer un ping a tu teléfono en cualquier momento y cancelar tus planes de fin de semana, y cuando los estudiantes salieron a la calle coreando "¡Fuera el algoritmo!" después de que se cancelaran los exámenes y sus admisiones en la universidad fueran decididas por un algoritmo.
La nueva norma pretende empujar a los organismos públicos a crear transparencia sobre cómo, cuándo y dónde se toman las decisiones algorítmicas.
Unmute
Duración
0:55
/
Hora actual
0:28
Ajustes avanzados
Pantalla completa
Pausa
Siguiente
El uso de algoritmos para tomar decisiones en los servicios públicos está siendo objeto de un creciente escrutinio en todo el mundo. Recientemente, en el Reino Unido se ha presentado un recurso contra el Ministerio de Trabajo y Pensiones tras revelarse que un algoritmo seleccionaba de forma desproporcionada a personas discapacitadas para una revisión de fraude en las prestaciones. En EE.UU., tras años en los que los investigadores han dado la voz de alarma, los periodistas han reunido la mayor colección de pruebas de que los programas informáticos de predicción de la delincuencia que prometían estar libres de prejuicios raciales en realidad los han perpetuado.
Estos casos suelen sorprender al público y a las comunidades a las que afectan. Una encuesta del Centro para la Ética y la Innovación de los Datos reveló que el 38% del público británico no sabía que se utilizaban sistemas algorítmicos para respaldar las decisiones que utilizan datos personales para, por ejemplo, evaluar el riesgo de que alguien pueda necesitar ayuda de asistencia social. Actualmente, cuando se toma una decisión sobre ti, es muy difícil saber si la toma un humano o un algoritmo.
Ahora mismo, la única manera de saber qué sistemas se utilizan y dónde, es a través de investigaciones de periodistas, organizaciones de la sociedad civil, activistas o investigadores académicos. E incluso entonces, estos investigadores suelen obtener respuestas sólo después de muchas solicitudes de libertad de información (FOI). Se trata de un método lento y engorroso de recopilación de pruebas, con muchas posibilidades de ofuscación y confusión. Los investigadores informan de que obtienen una documentación exhaustiva sobre el uso de Microsoft Word por parte de una autoridad local, que no es precisamente la tecnología de alto riesgo que buscaban.
Incluso entre los departamentos gubernamentales, los organismos públicos y las autoridades locales hay una brecha de conocimiento; a menudo no saben qué sistemas se están utilizando y por qué, y esto impide compartir la información, los beneficios y los daños que apoyarían un ecosistema saludable de progreso consciente del riesgo.
Esta carencia fundamental de información y conocimiento es lo que ha llevado al Instituto Ada Lovelace y a otros a sugerir la creación de registros de transparencia para los sistemas algorítmicos de toma de decisiones del sector público, es decir, los sistemas que utilizan la automatización para tomar decisiones, o que apoyan significativamente a los humanos en la toma de decisiones. Un registro de transparencia reuniría la información sobre los sistemas gubernamentales en un único lugar y de forma clara y accesible, lo que permitiría el escrutinio del público, así como de los periodistas, activistas y académicos que actúan en su nombre.
Los registros de transparencia se están probando en ciudades como Ámsterdam, Helsinki, Nantes y Nueva York, y proporcionan detalles sobre sistemas que van desde los chatbots de atención sanitaria materna hasta los algoritmos para identificar la provisión de viviendas potencialmente ilegales. Estos registros forman parte de una serie de enfoques y políticas diseñados para crear una mayor responsabilidad en el uso de algoritmos en los servicios públicos que están siendo explorados por los gobiernos de todo el mundo, como Canadá, que recientemente introdujo una evaluación de impacto algorítmico para los organismos del sector público.
*** Translated with www.DeepL.com/Translator (free version) ***
Comentarios
Publicar un comentario