Apoyando la autonomía humana en los sistemas de inteligencia artificial: un marco para la investigación ética

 La autonomía ha sido fundamental para la filosofía moral y política durante milenios y se ha posicionado como un aspecto fundamental tanto de la justicia como del bienestar. La investigación en psicología apoya esta posición, proporcionando evidencia empírica de que la autonomía es fundamental para la motivación, el crecimiento personal y el bienestar psicológico. La IA responsable requerirá una comprensión y la capacidad de diseñar de manera efectiva la autonomía humana (en lugar de solo la autonomía de la máquina) si quiere beneficiar realmente a la humanidad. Sin embargo, los efectos sobre la autonomía humana de las experiencias digitales no son sencillos ni consistentes, y se complican por los intereses comerciales y las tensiones en torno al uso excesivo compulsivo. Esta realidad de múltiples capas requiere un análisis que sea en sí mismo multidimensional y que tenga en cuenta la experiencia humana en varios niveles de resolución. Tomamos prestado de HCI y la investigación psicológica para aplicar un modelo ("METUX") que identifica seis esferas distintas de experiencia tecnológica. Demostramos el valor del modelo para comprender la autonomía humana en un contexto de ética tecnológica en múltiples niveles aplicándolo al estudio de caso del mundo real de un sistema de recomendación de video mejorado por IA. En el proceso, defendemos las siguientes tres afirmaciones: (1) Hay consecuencias relacionadas con la autonomía de los algoritmos que representan los intereses de terceros, y no son extensiones imparciales y racionales del yo, como a menudo se percibe; (2) Diseñar para la autonomía es un imperativo ético crítico para el diseño futuro de una IA responsable; y (3) el apoyo a la autonomía debe analizarse a partir de al menos seis esferas de experiencia para captar adecuadamente los efectos contradictorios y posteriores.

https://link.springer.com/chapter/10.1007/978-3-030-50585-1_2

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje