Algoritmos e igualdad: lecciones de la controversia de los niveles A

 Los jóvenes nos han enseñado que el uso de algoritmos y tecnología basada en datos debe funcionar para promover la igualdad, no socavarla. El gobierno debe responder a las lecciones del algoritmo de clasificación Ofqual y mejorar la responsabilidad por los daños colectivos para reconstruir la confianza pública en la tecnología. También es hora de pensar en una nueva protección para los desfavorecidos por su origen socioeconómico, escribe Anna Thomas, cofundadora y directora del Instituto para el Futuro del Trabajo.

La tecnología es tan buena como los humanos la desarrollen, apliquen y gobiernen; y los valores humanos que sustentan estas actividades. El sistema de estandarización algorítmica de Ofqual no tenía poderes misteriosos: era un sistema socio-técnico. Los seres humanos decidieron implementar el algoritmo y determinar su cometido y propósito. Los humanos diseñaron el algoritmo (Ofqual o más probablemente un contratista especializado); los humanos seleccionaron los puntos de datos, las variables y la ponderación; y los humanos decidieron cómo se deberían utilizar los datos históricos, que reflejan las desigualdades históricas. Y a nivel político, los humanos también deciden cómo regular, gobernar y supervisar estas decisiones.

https://www.ifow.org/news/2020/8/21/technology-and-equality-some-lessons-from-the-a-levels-controversy

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social