Censura algorítmica por plataformas sociales: poder y resistencia
La moderación eficaz del contenido por parte de las plataformas sociales es importante y difícil; Numerosos problemas surgen del volumen de información, la naturaleza culturalmente sensible y contextual de esa información y los matices de la comunicación humana. Al intentar escalar la moderación, las plataformas sociales adoptan cada vez más enfoques automatizados para suprimir las comunicaciones que consideran indeseables. Sin embargo, esto trae sus propias preocupaciones. Este artículo examina los efectos estructurales de la censura algorítmica por parte de las plataformas sociales para ayudar a desarrollar una comprensión más completa de los riesgos de tales enfoques para la moderación del contenido. Este análisis muestra que la censura algorítmica se distingue por dos razones: (1) por poner potencialmente al alcance todas las comunicaciones realizadas en las plataformas sociales y (2) por permitir que esas plataformas adopten un enfoque intervencionista más activo para moderar esas comunicaciones. En consecuencia, la censura algorítmica podría permitir a las plataformas sociales ejercer un grado de control sin precedentes sobre las comunicaciones públicas y privadas. Además, las prioridades comerciales se insertarían aún más en las comunicaciones diarias de miles de millones de personas. Debido al dominio de la web por algunas plataformas sociales, esto puede ser difícil o poco práctico de escapar para muchas personas, aunque existen oportunidades de resistencia.
https://link.springer.com/article/10.1007/s13347-020-00429-0
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).
Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.
Comentarios
Publicar un comentario