Los usuarios finales merecen "derecho a una explicación" sobre el perfil de los modelos algorítmicos de toma de decisiones

https://www.cpomagazine.com/data-privacy/carnegie-mellon-university-end-users-deserve-right-to-explanation-about-how-algorithmic-decision-making-models-profile-them/

Las redes sociales y el sector de la publicidad en Internet se basan ahora casi por completo en modelos algorítmicos de toma de decisiones que intentan determinar quién es el usuario final, cómo funciona su mente y a qué será más receptivo (y a qué se dedicará). Investigadores de la Universidad Carnegie Mellon, tras un análisis de estos modelos publicado en Business Ethics Quarterly, abogan ahora por el "derecho a la explicación" para arrojar luz sobre estos modelos secretos que influyen en el estado de ánimo, el comportamiento e incluso las acciones de millones de personas en todo el mundo cada día.


- Publicidad -

Los investigadores examinan esta propuesta de derecho en el marco de las normas existentes del Reglamento General de Protección de Datos (RGPD), estableciendo una comparación con el establecido "derecho al olvido" (también una característica de algunas otras leyes nacionales de protección de datos). Entre otras ideas, el documento imagina una nueva posición de "intérprete de datos" que sirva de enlace de buena fe entre el público y el resultado de estos opacos modelos algorítmicos de toma de decisiones.


El derecho a la explicación es defendido por los investigadores

El uso de la toma de decisiones algorítmica está bien documentado entre las plataformas de medios sociales y las herramientas de búsqueda como Google y Bing, pero también se utiliza para los sistemas de emparejamiento y fijación de precios en las aplicaciones de transporte compartido y de reparto. También tiene diversas funciones en la tecnología publicitaria, entre las que destaca la elaboración de perfiles de personas que se mueven por Internet y la determinación de los anuncios más relevantes para ellas. Otro punto de preocupación es su uso en los sistemas de búsqueda de empleo, donde se ha denunciado un sesgo basado en la etnia y otras categorías demográficas.


Como señala el estudio, el GDPR de la Unión Europea regula directamente estos sistemas. Sin embargo, gran parte de esta normativa consiste en un lenguaje amplio y no aborda directamente el "derecho a la explicación" de los interesados; lo más cerca que llega es a exigir cierta divulgación de cómo se utilizan los datos recogidos en algunas circunstancias.


- Publicidad -

Los investigadores de Carnegie creen que las disposiciones existentes sobre el "derecho al olvido" en el RGPD pueden interpretarse de tal manera que los titulares de datos de la UE deberían tener derecho a una explicación. El "derecho al olvido", establecido principalmente en el artículo 17 del RGPD, concede a los ciudadanos de la UE el derecho a acceder a determinados tipos de datos personales y a que se eliminen si lo solicitan.


Una piedra angular fundamental tanto del artículo 15 (el derecho de acceso a los datos personales) como del artículo 17 es que los titulares de los datos de la UE deben dar su consentimiento a la recogida como base legal para el tratamiento. La perspectiva que adoptan algunos investigadores es que no se puede consentir de forma significativa la recogida y el uso de los datos cuando se hace mediante una tecnología algorítmica de toma de decisiones que el usuario no puede ver ni comprender. Esto es doblemente cierto cuando ese algoritmo cambia con el tiempo, y tal vez va más allá de lo que el usuario final consintió originalmente en participar.


Las empresas tecnológicas son naturalmente reticentes al derecho a la explicación de la toma de decisiones de sus algoritmos, en gran parte porque se trata de un valioso secreto comercial para muchas de ellas. Pero, como señala el estudio, algunas han proporcionado voluntariamente al menos alguna forma limitada de explicación en interés de las relaciones públicas. Un ejemplo es Facebook, que a finales de 2019 añadió un enlace "¿Por qué estoy viendo este anuncio?" a los anuncios dirigidos. Esto revela conexiones muy generales, como los lugares en los que el usuario puede haberse registrado o las páginas o anuncios anteriores con los que puede haber interactuado. Pero no profundiza en el funcionamiento técnico de la elaboración de perfiles ni en cómo se priorizan los anuncios para un individuo.

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social