Los valores subyacentes de Investigación de aprendizaje automático

 La investigación del aprendizaje automático está creciendo rápidamente y los sistemas están cambiando las prácticas anteriores de corporaciones, gobiernos, comunidades, individuos y entornos. En este contexto, los valores de la investigación de ML han tenido una influencia enorme. Los investigadores suelen argumentar que el AA es una herramienta apolítica y neutral en cuanto a valores, que se centra en las consecuencias positivas o enfatiza los valores en las declaraciones de ética de la IA. Para descubrir los valores subyacentes del campo, llevamos a cabo una anotación detallada de docenas de artículos de ML muy influyentes publicados en conferencias destacadas. Presentamos un análisis cuantitativo y una discusión cualitativa de las justificaciones declaradas de los artículos, valores y consecuencias negativas. Encontramos que la mayoría de estos artículos no mencionan ni una necesidad social ni consecuencias negativas. En cambio, estos artículos se evalúan a sí mismos de acuerdo con un conjunto de valores internos al campo. Discutimos cómo cada uno de estos valores supuestamente neutrales se invoca en formas políticamente cargadas, haciendo suposiciones particulares sobre el mundo y conduciendo a consecuencias particulares, y argumentamos que estos valores frecuentemente centralizan el poder.

https://drive.google.com/file/d/1tjrm3Bf1hxV8iuPSiCcM1IazITGp-GZj/view

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social