Ayer una vez más
https://reallifemag.com/yesterday-once-more/
En 2012, Joan Serrà y un equipo de científicos del Instituto de Investigación en Inteligencia Artificial del Consejo Superior de Investigaciones Científicas confirmaron algo que muchos habían llegado a sospechar: que la música era cada vez más igual. El equipo descubrió que la variedad tímbrica de la música pop había disminuido desde la década de 1960, tras utilizar la analítica informática para desglosar casi medio millón de canciones grabadas por volumen, tono y timbre, entre otras variables. Esta convergencia sugería que había una cualidad subyacente de consumibilidad hacia la que gravitaba la música pop: una fórmula de viralidad musical.
Estos descubrimientos marcaron un hito en la industria del descubrimiento musical, un esfuerzo multimillonario por generar metadatos descriptivos de las canciones mediante inteligencia artificial para que los algoritmos puedan recomendarlas a los oyentes. A principios de la década de 2010, la principal empresa de inteligencia musical era Echo Nest, que Spotify adquirió en 2014. Fundada en el MIT Media Lab en 2005, Echo Nest desarrolló algoritmos que podían medir la música grabada utilizando un conjunto de parámetros similares a los de Serrà, incluyendo algunos con nombres poco precisos como acústico, bailable, instrumental y discursivo. Para completar sus modelos, los algoritmos también podían buscar en Internet y analizar semánticamente todo lo que se escribiera sobre una pieza musical determinada. El objetivo era diseñar una huella dactilar completa de una canción: reducir la música a datos para guiar mejor a los consumidores hacia las canciones que disfrutarían.
Con el tiempo, los oyentes podrían empezar a parecerse a los modelos que han creado las plataformas de streaming
Cuando Spotify compró el Echo Nest, afirmó haber analizado más de 35 millones de canciones, utilizando un billón de puntos de datos. Esos datos ayudaron a dotar a Spotify de un extraordinario poder de recomendación para rastrear los hábitos de escucha de los usuarios y sugerir nueva música en consecuencia, integrando la recopilación de datos, el análisis y la intervención predictiva en un bucle cerrado.
La filósofa de la ciencia Catherine Stinson describe estos bucles de la siguiente manera:
La secuencia de eventos es un bucle que comienza con un paso de recomendación basado en el modelo inicial, luego se le presentan al usuario las recomendaciones y elige algunos elementos con los que interactuar. Estas interacciones proporcionan una retroalimentación explícita o implícita en forma de etiquetas, que se utilizan para actualizar el modelo. A continuación, el bucle se repite con recomendaciones basadas en el modelo actualizado.
El resultado es que los usuarios siguen encontrando contenidos similares porque los algoritmos siguen recomendándolos. A medida que este bucle de retroalimentación continúa, no se añade ninguna información nueva; el algoritmo está diseñado para recomendar contenidos que afirmen lo que interpreta como tus gustos.
Ninguna plataforma de streaming puede predecir con exactitud los gustos; los seres humanos son demasiado dinámicos para poder predecirlos de forma coherente. En cambio, Spotify construye modelos de los usuarios y hace predicciones recomendando música que coincide con los modelos. Atrapados en estos bucles de retroalimentación, los estilos musicales empiezan a converger a medida que las canciones se recomiendan según un vocabulario predeterminado de descriptores de Echo Nest. Con el tiempo, los oyentes pueden empezar a parecerse a los modelos que han creado las plataformas de streaming. Con el tiempo, algunos pueden volverse intolerantes a todo lo que no sea un eco.
*** Translated with www.DeepL.com/Translator (free version) ***
Comentarios
Publicar un comentario