Por qué las redes sociales no pueden seguir moderando el contenido en la sombra

 En 2016, podía contar por un lado los tipos de intervenciones que las empresas de tecnología estaban dispuestas a utilizar para librar a sus plataformas de información errónea, discurso de odio y acoso. A lo largo de los años, los mecanismos toscos como el bloqueo de contenido y la prohibición de cuentas se han transformado en un conjunto de herramientas más complejo, que incluyen temas de cuarentena, eliminación de publicaciones de la búsqueda, recomendaciones de exclusión y clasificación descendente de publicaciones en prioridad.

Y, sin embargo, incluso con más opciones a su disposición, la desinformación sigue siendo un problema grave. Hubo mucha cobertura sobre la desinformación el día de las elecciones; mi colega Emily Drefyuss descubrió, por ejemplo, que cuando Twitter trató de lidiar con el contenido usando el hashtag #BidenCrimeFamily, con tácticas que incluían "desindexación" al bloquear los resultados de búsqueda, los usuarios incluido Donald Trump adaptado utilizando variantes de la misma etiqueta. Pero todavía no sabemos mucho sobre cómo Twitter decidió hacer esas cosas en primer lugar, o cómo pesa y aprende de las formas en que los usuarios reaccionan a la moderación.

https://www.technologyreview.com/2020/11/06/1011769/social-media-moderation-transparency-censorship/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje