Center for Applied Data Ethics sugiere tratar la IA como una burocracia

 Un artículo reciente del Center for Applied Data Ethics (CADE) de la Universidad de San Francisco insta a los profesionales de la IA a adoptar términos de la antropología al revisar el rendimiento de grandes modelos de aprendizaje automático. La investigación sugiere usar esta terminología para interrogar y analizar la burocracia, los estados y las estructuras de poder con el fin de evaluar críticamente el desempeño de los grandes modelos de aprendizaje automático con el potencial de dañar a las personas.

“Este documento centra el poder como uno de los factores que los diseñadores deben identificar y con los que deben luchar, junto con las conversaciones en curso sobre sesgos en los datos y el código, para comprender por qué los sistemas algorítmicos tienden a volverse inexactos, absurdos, dañinos y opresivos. Este documento enmarca los sistemas algorítmicos masivos que dañan a los grupos marginados como funcionalmente similares a estados administrativos masivos y en expansión que James Scott describe en Seeing Like a State ”, escribió el autor.

https://venturebeat.com/2021/01/22/center-for-applied-data-ethics-suggests-treating-ai-like-a-bureaucracy/


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social