El lavado mediante participación podría ser la próxima moda peligrosa en el aprendizaje automático

 La comunidad de IA finalmente se está dando cuenta del hecho de que el aprendizaje automático puede causar un daño desproporcionado a los grupos ya oprimidos y desfavorecidos. Tenemos activistas y organizadores a quienes agradecer por eso. Ahora, los investigadores y académicos del aprendizaje automático están buscando formas de hacer que la IA sea más justa, responsable y transparente, pero también, recientemente, más participativa.

Uno de los eventos más emocionantes y con mayor asistencia de la Conferencia Internacional sobre Aprendizaje Automático en julio se llamó "Enfoques participativos del aprendizaje automático". Este taller aprovechó la aspiración de la comunidad de construir sistemas algorítmicos más democráticos, cooperativos y equitativos mediante la incorporación de métodos participativos en su diseño. Dichos métodos incorporan al proceso de diseño a quienes interactúan con un sistema algorítmico y se ven afectados por él, por ejemplo, solicitando a las enfermeras y médicos que ayuden a desarrollar una herramienta de detección de sepsis.

Se trata de una intervención muy necesaria en el campo del aprendizaje automático, que puede ser excesivamente jerárquico y homogéneo. Pero no es una solución milagrosa: de hecho, el "lavado de participación" podría convertirse en la próxima moda peligrosa del campo. Eso es lo que yo, junto con mis coautores Emanuel Moss, Olaitan Awomolo y Laura Forlano, argumentamos en nuestro artículo reciente "La participación no es una solución de diseño para el aprendizaje automático".

Ignorar los patrones de opresión y privilegios sistémicos conduce a sistemas de aprendizaje automático irresponsables que son profundamente opacos e injustos. Estos patrones han impregnado el campo durante los últimos 30 años. Mientras tanto, el mundo ha observado el crecimiento exponencial de la desigualdad de la riqueza y el cambio climático impulsado por los combustibles fósiles. Estos problemas tienen sus raíces en una dinámica clave del capitalismo: la extracción. La participación también se basa a menudo en la misma lógica de extracción, especialmente cuando se trata de aprendizaje automático.

La participación no es gratuita

Comencemos con esta observación: la participación ya es una gran parte del aprendizaje automático, pero de manera problemática. Una forma es la participación como trabajo.

Ya sea que se reconozca o no su trabajo, muchos participantes desempeñan un papel importante en la producción de datos que se utilizan para entrenar y evaluar modelos de aprendizaje automático. Las fotos que alguien tomó y publicó se extraen de la web, y los trabajadores con salarios bajos en plataformas como Amazon Mechanical Turk anotan esas fotos para convertirlas en datos de capacitación. Los usuarios habituales del sitio web también hacen esta anotación cuando completan un reCAPTCHA. Y hay muchos ejemplos de lo que se conoce como trabajo fantasma, el término que la antropóloga Mary Gray utiliza para referirse a todo el trabajo entre bastidores que implica hacer que funcionen sistemas aparentemente automatizados. Gran parte de esta participación no se compensa adecuadamente y, en muchos casos, apenas se reconoce.

https://www.technologyreview.com/2020/08/25/1007589/participation-washing-ai-trends-opinion-machine-learning/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social