Permitir que el usuario final actúe y confíe en los sistemas de inteligencia artificial

https://beyondstandards.ieee.org/enabling-end-user-trust-in-artificial-intelligence-in-the-algorithmic-age/

Los sistemas complejos de inteligencia artificial (SIA) se abren paso cada vez más en los contextos de consumo. Los usuarios de a pie, sin experiencia en el sector, se introducen en estos sistemas con distintos grados de transparencia y comprensión de la tecnología. Además, la mayoría no tiene claro cómo la interacción con estos sistemas puede afectar a sus vidas, tanto de forma positiva como negativa. 


En un mundo ideal, imaginamos que podemos aprovechar las ventajas de los SIA y, al mismo tiempo, mitigar sus riesgos. Por eso se creó el Comité de Confianza y Agencia del IEEE (creado como comité de la Iniciativa Global del IEEE sobre Ética de los Sistemas Autónomos e Inteligentes). A medida que navegamos por la fase de innovación transitoria de los SIA, la comprensión y el debate crítico sobre el papel y la interacción de la confianza y la agencia del usuario final, junto con la agencia de la máquina, desempeñarán un papel clave para garantizar que utilicemos estos complejos sistemas de forma eficaz, sostenible y segura.


Cuatro cuestiones clave sobre la confianza y la agencia

La confianza y la agencia en el contexto de la tecnología se discuten en varios campos, pero parece haber poco acuerdo sobre las definiciones y los métodos utilizados en la investigación y la práctica de la confianza, así como sobre las interpretaciones de la confianza y la fiabilidad, por no mencionar las diferencias individuales entre los "buscadores de confianza" y los "escépticos de la confianza". 


Como punto de partida para lograr claridad y orientación, invitamos a los miembros del Comité de Confianza y Agencia del IEEE a compartir sus puntos de vista sobre la confianza y la agencia desde sus propias perspectivas y trabajos. Los miembros de nuestro comité proceden de distintas partes del mundo y tienen diferentes trayectorias profesionales. Hemos formulado cuatro preguntas junto con sus biografías para que podamos entender sus puntos de vista en el contexto de sus respectivas perspectivas. El documento completo se publicará a finales de año, pero he aquí un breve resumen de lo que han dicho los autores hasta ahora:


Pregunta 1: ¿Por qué cree que es tan difícil definir la "confianza" para la IA hoy en día?

Dado que todo el mundo habla de confianza en estos días y que el "lavado de confianza" es ya una cosa, queríamos saber en qué consiste la confianza, para profundizar un poco más en por qué se debate tanto. En nuestras reuniones del comité, exploramos los componentes de la confianza, discutiendo que la confianza es una actitud, que la confianza está dirigida a un objetivo, y el papel de la vulnerabilidad a la traición. A menudo, estas discusiones conducen a debates sobre la fiabilidad. 


La fiabilidad es distinta de la confianza, ya que se refiere a los atributos de la fiabilidad de la máquina en función de los atributos basados en el rendimiento (es decir, lo bueno que es el producto), las características del proceso (es decir, lo comprensible que es el sistema para un operador) y la benevolencia, que es un atributo basado en el propósito que se refiere a la intención de los diseñadores o se pregunta por qué se construyó un sistema. Como verás, las respuestas de nuestros expertos son diversas y cada una puede contribuir a una mejor comprensión global de estas cuestiones. 


¿Y usted? ¿Qué le viene a la mente cuando piensa en la confianza? ¿Confianza en los seres humanos? ¿Confianza en las máquinas? ¿Tiene alguna perspectiva que no hayamos visto en las respuestas siguientes?


Háganos saber su opinión enviando un correo electrónico a marisa.tschopp@scip.ch.


Pregunta 2: ¿Por qué cree que es tan difícil definir la "agencia" para la IA hoy en día?

Los investigadores, los profesionales y los expertos en ética debaten apasionadamente sobre este tema, y no se suele "flamear" cuando se habla de la confianza en la interacción entre el ser humano y la IA. Tal vez no exista, tal vez la confianza esté mal planteada, tal vez todo sea antropomorfismo, no lo sabemos. Sin embargo, confiar en una máquina significa darle agencia y renunciar a parte de nuestra propia agencia humana. ¿Cuándo y cómo tenemos "derecho de veto" cuando una máquina toma decisiones? 


Nuestra teoría y esperanza es que habilitar la agencia del usuario como medio de control podría ser una forma de abordar esta cuestión. Por eso nuestro comité decidió centrarse en la agencia en lugar de limitarse al "tema candente" de la confianza. Al leer las respuestas a esta pregunta, se observa una interpretación aún más amplia de la noción de agencia en el contexto de la IA. Algunos hablan más de la agencia de las máquinas técnicas, mientras que otros se centran más en la agencia de los humanos, y otros en la tensión entre ambas. 


¿Cuál es su opinión inicial? ¿Asocian la "agencia" con el poder de las máquinas o con el poder de los humanos? 


Háganos saber su opinión enviando un correo electrónico a marisa.tschopp@scip.ch.


Pregunta 3: ¿Cuáles son las mayores necesidades o desafíos para las empresas y los responsables políticos en torno a la definición de "confianza" y "agencia" para la IA y por qué?

La mayoría de la gente nunca entenderá cómo funciona la Inteligencia Artificial. Sin embargo, algunos expertos sí entienden el SIA y se les puede pedir ayuda y consejo. Además, cada vez hay más leyes que protegen a los usuarios de los aspectos negativos de la SIA, como la legislación que garantiza aspectos de la privacidad de los datos. Aunque es poco práctico e imposible educar a todo el mundo en los detalles de los SIA, podemos esforzarnos por proporcionar una mayor alfabetización sobre los fundamentos y la mecánica de los SIA para que pueda fomentar un uso informado en lugar de una confianza ciega.


Hay consenso en que los humanos "deberían" tener el poder

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social