Center for Applied Data Ethics sugiere tratar la IA como una burocracia

 Un artículo reciente del Center for Applied Data Ethics (CADE) de la Universidad de San Francisco insta a los profesionales de la IA a adoptar términos de la antropología al revisar el rendimiento de grandes modelos de aprendizaje automático. La investigación sugiere usar esta terminología para interrogar y analizar la burocracia, los estados y las estructuras de poder con el fin de evaluar críticamente el desempeño de los grandes modelos de aprendizaje automático con el potencial de dañar a las personas.

“Este documento centra el poder como uno de los factores que los diseñadores deben identificar y con los que deben luchar, junto con las conversaciones en curso sobre sesgos en los datos y el código, para comprender por qué los sistemas algorítmicos tienden a volverse inexactos, absurdos, dañinos y opresivos. Este documento enmarca los sistemas algorítmicos masivos que dañan a los grupos marginados como funcionalmente similares a estados administrativos masivos y en expansión que James Scott describe en Seeing Like a State ”, escribió el autor.

https://venturebeat.com/2021/01/22/center-for-applied-data-ethics-suggests-treating-ai-like-a-bureaucracy/


Comentarios

Popular

El estado de la IA en 10 gráficos

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles