El camino al infierno está pavimentado con buenos algoritmos: el caso de desactivar los algoritmos de recomendación en la esfera política

Los algoritmos, y los algoritmos de recomendación en particular, están profundamente arraigados en nuestra esfera pública en red. Facebook nos recomienda nuevos amigos, páginas a las que me gusta o grupos a los que unirse, sitios web de Google que se ajustan a nuestros intereses de búsqueda, personas de Twitter para seguir o temas para consultar, productos de Amazon para comprar, música de Spotify para escuchar y videos de YouTube para mirar.

Según Alexa, los sitios web más visitados en los EE. UU. Son Google, YouTube, Amazon, Yahoo y Facebook. Los algoritmos de recomendación son una parte integral de cada uno de esos sitios web. Como han argumentado Eli Pariser, Safiya Umoja Noble, Frank Pasquale y muchos otros, existen innumerables razones para preocuparnos por el papel integral de los algoritmos en nuestra vida diaria. Estos incluyen la creación de comunidades homogéneas sin nuestro conocimiento; reproducción del racismo y la misoginia; y el ocultamiento de decisiones algorítmicas para empezar. En este contexto, además de mi propia investigación sobre la extrema derecha, la desinformación y los algoritmos, sostengo que las empresas de redes sociales necesitan desactivar sus algoritmos de recomendación en la esfera política. Estructuro esta demanda en torno a nuestro conocimiento sobre cómo funciona el aprendizaje automático, las trampas de la curación de contenido automatizada, cómo los objetivos corporativos pueden ir en contra del bien público, así como los hallazgos de mi propia investigación.

Cuando pensamos en algoritmos de recomendación, debemos pensar en el aprendizaje automático y los modelos de probabilidad estadística. Después de todo, esto es lo que son los algoritmos. Sin embargo, como dijo el estadístico británico George Box: "Todos los modelos son incorrectos, pero algunos son útiles". Como Momin Malik destaca de manera convincente, estos modelos son aproximaciones y hay numerosas formas en las que pueden fallar o tener deficiencias. En una nota más aplicada, Harini Suresh y John Guttag identificaron cinco sesgos que comprometen los algoritmos: sesgo histórico, sesgo de representación, sesgo de medición, sesgo de agregación y sesgo de evaluación. Estos sesgos pueden conducir a resultados problemáticos que pueden reproducir problemas como el racismo, la misoginia y más. En resumen: los algoritmos, por buenos que sean, siempre tendrán limitaciones.

Este problema solo se agrava cuando se enfoca en el lado de la oferta, es decir, el contenido en una plataforma. Como mi colega Adrian Rauchfleisch y yo hemos destacado, el contenido de extrema derecha que presenta en gran medida el racismo o la desinformación juega un papel importante en la esfera de YouTube alemana y estadounidense. Al comparar la prominencia de los actores de extrema derecha en YouTube con los hallazgos generales de la esfera pública en red de EE. UU., La franja política extrema parece sobrerrepresentada en YouTube. De manera similar, en Alemania, la comunidad política de YouTube se compone principalmente de canales conspiradores y de extrema derecha. Esto, entonces, resalta que las comunidades políticas en YouTube apenas son representativas del discurso general de los medios y parecen favorecer voces más radicales.

Pero como destacan Michael Golebiewski y Danah Boyd, incluso si ese no fuera el caso, los algoritmos enfrentan un problema inherente: los vacíos de datos. Los vacíos de datos son, en resumen, lagunas en el contenido que una plataforma puede recomendar. Por ejemplo, esto puede ocurrir cuando un término de búsqueda específico gana popularidad repentinamente. Estos vacíos de datos, sin embargo, pueden ser abusados ​​por actores malintencionados que quieren difundir desinformación; los algoritmos de recomendación no pueden no recomendar contenido. De hecho, están limitados al contenido de sus plataformas. Esta necesidad inherente de recomendar, por lo tanto, puede presentar contenido dañino; esto es especialmente cierto cuando el contenido de la plataforma ya es dañino. Como mis coautores y yo mostramos en un próximo estudio sobre el Zika en Brasil, incluso cuando YouTube seleccionó los resultados de búsqueda de videos sobre el virus del Zika, la información errónea seguía presente en todos los resultados y recomendaciones. Esto, entonces, indica que incluso cuando las plataformas intentan seleccionar sus recomendaciones, los algoritmos descubrirán y recomendarán contenido dañino.

Añádase a esto que los algoritmos que suelen ser propiedad de las empresas y por ello, como Pasquale, resaltan las “cajas negras”. Esto significa que inherentemente solo podemos ver, medir o interactuar con la salida de un algoritmo y solo podemos adivinar cómo el algoritmo terminó con sus recomendaciones finales. Si bien de vez en cuando nos damos una idea de algunos de los factores que contribuyen a los algoritmos de una plataforma, el público en general, así como los creadores de contenido de la plataforma, se quedan en la oscuridad. En algunas plataformas como YouTube (pero también recientemente TikTok), el algoritmo tiene, por tanto, incluso una cualidad "celestial", ya que el éxito de los creadores de contenido depende de él.

https://balkin.blogspot.com/2020/12/the-road-to-hell-is-paved-with-good.html

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social