Mind the Gap: Informe final del Grupo de trabajo sobre igualdad
Los gobiernos y las empresas utilizan cada vez más los algoritmos para tomar decisiones 'automatizadas' basadas en datos que pueden tener consecuencias de gran alcance con poca transparencia, escrutinio o responsabilidad. Aunque la apariencia superficial de objetividad de los algoritmos parece eliminar los sesgos en la toma de decisiones humana, los algoritmos siempre reflejan las suposiciones de quienes los diseñaron y los patrones en los datos en los que están entrenados.
Sin intervención ni supervisión, el estado natural de las tecnologías basadas en datos es replicar patrones pasados de desigualdad estructural que están codificados en datos y proyectarlos hacia el futuro. Es vital que los responsables de la formulación de políticas comprendan esto. Para evitar este resultado, quienes usan algoritmos para tomar decisiones que afectan la vida de las personas, desde el nivel educativo hasta la contratación para pagar y los ascensos, deben tomar medidas activas y deliberadas para garantizar que los algoritmos promuevan la igualdad en lugar de afianzar la desigualdad.
Nuestro análisis muestra que el marco legal y el régimen regulatorio actuales no se han mantenido al día con los desarrollos recientes en lo que la tecnología es capaz de hacer, o con cómo se implementa de forma rutinaria. En particular, la legislación vigente en materia de igualdad y protección de datos es insuficiente para brindar protección y compensación a quienes se encuentran en desventaja por los supuestos incorporados en los algoritmos.
https://www.ifow.org/publications/mind-the-gap-the-final-report-of-the-equality-task-force
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).
Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.
Comentarios
Publicar un comentario