AGENCIA HUMANA Y DE LA MÁQUINA

https://www.scip.ch/en/?labs.20220106

Los sistemas complejos de automatización e inteligencia artificial (SIA) se abren paso cada vez más en el contexto de los consumidores. Estos sistemas se presentan a los usuarios comunes sin experiencia en el campo, con diferentes grados de transparencia y comprensión de la tecnología. Además, la mayoría no tiene claro cómo la interacción con estos sistemas puede afectar a sus vidas, no sólo de forma positiva sino también negativa. En un mundo ideal, podemos cosechar los beneficios de los SIA, al tiempo que mitigamos los riesgos. Por eso se fundó el comité de Confianza y Agencia del IEEE. Especialmente en el contexto de los consumidores y en esta fase de innovación de transición, la confianza y la agencia del usuario final (y la interacción con la agencia de la máquina) probablemente desempeñarán un papel clave e influirán en que estos complejos sistemas se utilicen de forma eficaz, sostenible y segura.


La confianza y la agencia en el contexto de la tecnología se discuten en varios campos, por ejemplo, la interacción humano-robot, los factores humanos, la experiencia del usuario (UX), a través de la lente de varias disciplinas, con la filosofía, la psicología, la sociología y la ética a la cabeza de estos debates. Sin embargo, parece haber poco acuerdo en las definiciones y los métodos utilizados en la investigación y la práctica, así como en las interpretaciones de la confianza, de la misma manera que las personas confían en las máquinas. La confianza ha sido incluso cuestionada en su conjunto por los "escépticos de la confianza", que postulan que los sistemas de IA no son nada fiables, o, en las famosas palabras de Joanna Bryson La IA no es de fiar. El Comité de Confianza y Agencia del IEEE pretende sentar las bases para debatir y reevaluar abiertamente las ideas de confianza, fiabilidad y agencia en el contexto de la IA. La comprensión de esos conceptos y de cómo se relacionan con otros factores (hay una gran variedad de variables, desde las disposicionales hasta las situacionales, que esperan ser exploradas), conducirá a mejorar los comportamientos de confianza de los usuarios, entendidos como la forma en que las personas utilizan estos sistemas. También inspirará a los diseñadores de estos sistemas de forma positiva, por ejemplo, si quieren "diseñar para la agencia" y educar a sus usuarios en el uso de sus sistemas. Para ser más precisos, cómo comercializar los productos de forma más precisa, para ser aún más precisos, también de forma más ética. En definitiva, el comité quiere estar entre los primeros en redactar normas que permitan la agencia del usuario final.

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje