La cuestión de los proxies y las arquitecturas de elección. Por qué la legislación de la UE es importante para los sistemas de recomendación

https://www.frontiersin.org/articles/10.3389/frai.2022.789076/full?=&field=&journalName=Frontiers_in_Artificial_Intelligence&id=789076&s=03

Las recomendaciones están pensadas para aumentar las ventas o los ingresos por publicidad, ya que éstos son la primera prioridad de quienes pagan por ellas. Como los sistemas de recomendación hacen coincidir sus recomendaciones con las preferencias inferidas, no debería sorprendernos que el algoritmo optimice las preferencias lucrativas y, por tanto, coproduzca las preferencias que extrae. Esto se relaciona con los conocidos problemas de los bucles de retroalimentación, las burbujas de filtro y las cámaras de eco. En este artículo, discuto las implicaciones del hecho de que los sistemas informáticos trabajen necesariamente con apoderados cuando infieren recomendaciones y planteo una serie de preguntas sobre si los sistemas de recomendación hacen realmente lo que se dice que hacen, al tiempo que analizo las estructuras de incentivos económicos, a menudo perversas, que tienen un gran impacto en las decisiones de diseño relevantes. Por último, explicaré cómo las arquitecturas de elección para los controladores de datos y los proveedores de sistemas de IA previstas en el Reglamento General de Protección de Datos (RGPD) de la UE, la propuesta de Ley de Servicios Digitales de la UE (DSA) y la propuesta de Ley de IA de la UE ayudarán a romper varios círculos viciosos, limitando la forma en que se puede dirigir a las personas (RGPD, DSA) y exigiendo pruebas documentadas de la solidez, la resistencia, la fiabilidad y el diseño y despliegue responsables de los sistemas de recomendación de alto riesgo (Ley de IA).


Introducción

Los sistemas de recomendación (RecSyss) basados en el filtrado colaborativo crean inevitablemente bucles de retroalimentación, cámaras de eco y burbujas de filtrado, porque los algoritmos no pueden entrenarse con datos futuros. Además, la economía política que impulsa la estructura de incentivos para los proveedores y usuarios de estos sistemas crea incentivos perversos, sesgando las inferencias en una dirección favorable para quienes esperan obtener beneficios o ganar o confundir a la opinión pública. Ambas cuestiones se ven agravadas por el hecho de que los sistemas informáticos trabajan necesariamente con aproximaciones a la hora de determinar el resultado objetivo (recomendaciones relevantes) y de decidir las variables de características relevantes (en función de su distribución en los datos de entrenamiento).


Este artículo expone dos razones por las que la cuestión de los proxies es difícil de resolver. En primer lugar, resolverlo significa, en primer lugar, aceptar que cualquier recomendación inferida estará siempre limitada por la elección de los proxies; la cuestión no puede resolverse seleccionando proxies perfectos que sean idénticos a lo que pretenden mapear. En segundo lugar, el problema puede mitigarse seleccionando mejores proxies, pero sólo si "mejor" se refiere a una mayor atención a los incentivos económicos perversos y a una mayor agudeza en cuanto a los supuestos conductistas inquietantemente ingenuos que plagan el diseño de la investigación del filtrado colaborativo basado en datos conductuales. Lo primero requiere una mayor investigación sobre la economía política que informa el diseño de investigación de RecSyss, lo segundo requiere una mayor investigación sobre la forma en que se presenta el resultado de RecSyss, en particular el uso de métricas de rendimiento que se desprenden de la naturaleza de los proxies computables y sus limitaciones. Así pues, este artículo plantea dos puntos: (1) uno a nivel de epistemología, en relación con los supuestos que informan los relatos objetivistas de lo que realmente hacen los RecSyss y (2) uno a nivel de economía política, demostrando cómo los incentivos económicos actuales impulsan las decisiones de diseño en el ámbito de los RecSyss.

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje