El derecho a una Explicación

Las decisiones tomadas por sistemas de IA se aplican frecuentemente sin poder obtener una explicación.

El Reglamento General de Protección de Datos (GDPR) de la Unión Europea establece que las personas tienen derecho a "información significativa" sobre la lógica detrás de las decisiones automatizadas que utilizan sus datos. Esta ley, de una manera interesante y potencialmente radical, parece ordenar que cualquier toma de decisiones automatizada a la que las personas estén sujetas sea explicable a la persona afectada.

Cuando nos enfrentamos a instituciones complejas que toman decisiones que tienen un gran impacto en nuestras vidas, y donde no podemos entender lo que está sucediendo.

Cuando se piensa  en implementar un nuevo derecho, debe asegurarse de que no cree aún más costos ni plantee objeciones aún mayores. Por ejemplo, si implementar un derecho a una explicación significa que los tomadores de decisiones tienen que explicar todas sus decisiones, algunos podrían objetar que esto sería tan costoso que no deberíamos implementarlo. O podrían objetar que algunos algoritmos propietarios complejos pueden tener ventajas, incluso si son opacos. Por ejemplo, tal vez encuentran patrones complejos y producen decisiones que hacen que el mundo sea más justo y tendríamos que renunciar a eso porque son demasiado difíciles de explicar. Si está desarrollando una propuesta para implementar el derecho a una explicación, es importante lidiar con estos costos.

Sin embargo, si se realiza un análisis de costo-beneficio sin tener en cuenta la importancia moral de las explicaciones, podría concluirse que  lo que tenemos ahora es honesto. Que los empleadores no están obligados a explicar por qué despiden personas y definitivamente no están obligados a explicar por qué no contrataron a alguien. En el sistema de justicia penal, obtienes muchos algoritmos patentados podrían decir que hicieron un análisis de costo-beneficio y parece en general más eficiente o mejor para el bienestar, pero la justificación es incompleta en el mejor de los casos.

Pero la fortaleza de identificar algo como un derecho es que yo, como individuo, puedo objetar que incluso si el sistema es mejor en general, de hecho, se están violando mis derechos, por lo que tendremos que rediseñar el sistema para que sea justo.

Por esa razón, cualquier cambio tendrá que ser estructural. Por ejemplo, el derecho a una explicación puede significar que cada uno tenga un representante fiduciario para nuestros datos. Esta podría ser una estructura más realista y deseable para una propuesta: terceros que tienen este trabajo donde la gente puede acercarse a ellos y decir: "Estoy confundido acerca de por qué me está sucediendo esto, ¿pueden aclararme?" Todos necesitamos un experto a veces, y a menudo lo que hace que los resultados sean injustos es que las personas no pueden pagar por esos expertos, por lo que obtienen peores resultados.

Creo que las explicaciones son increíblemente importantes, pero a veces nos preocupamos demasiado si las reglas son transparentes o si la metodología del algoritmo es clara. A veces, lo más importante u objetable es, ¿deberíamos estar haciendo esto? ¿Fue el propósito para el cual construimos este algoritmo un buen propósito? Y, si es así, ¿lo hicimos bien?

Si las personas que construyen tecnología en el ámbito público o privado saben que cuando vayan a implementar un sistema, tendrán que justificarlo con precisión, entonces, con suerte, esto crearía incentivos para construir algoritmos más justificables moralmente. Además, creará una expectativa entre las personas en la sociedad en general de que eso es lo que pueden esperar. Y si eso no es lo que obtienen, entonces pueden responsabilizar a los tomadores de decisiones y tener una conversación sólida e inclusiva sobre si los sistemas tecnológicos están a la altura de nuestra visión moral individual o compartida de cómo debería ser la sociedad.


Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social