¿Se aplica el sesgo de correspondencia a los robots sociales? Atribuciones disposicionales y situacionales del comportamiento de los humanos frente al de los robots

https://www.frontiersin.org/articles/10.3389/frobt.2021.788242/full

Cada vez más, las personas interactúan con comunicadores automáticos encarnados y se enfrentan al reto de comprender su naturaleza y su comportamiento. El error fundamental de atribución (FAE, a veces denominado sesgo de correspondencia) es la tendencia de los individuos a dar demasiada importancia a las explicaciones basadas en la personalidad o en la disposición para el comportamiento de otras personas, mientras que dan poca importancia a las explicaciones situacionales. Este efecto se ha examinado a fondo con humanos, pero ¿hacen las personas las mismas inferencias causales cuando interpretan las acciones de un robot? En comparación con las personas, los robots sociales son menos autónomos y agénticos porque su comportamiento está totalmente determinado por los humanos en el bucle, la programación y las elecciones de diseño. No obstante, las personas asignan a los robots agencia, intencionalidad, personalidad y culpa. Los resultados de un experimento demostraron que los participantes hacían inferencias de correspondencia al evaluar tanto a los hablantes humanos como a los robóticos, atribuyendo su comportamiento a actitudes subyacentes incluso cuando estaba claramente coaccionado. Sin embargo, cometieron un sesgo de correspondencia más fuerte en el caso del robot -un efecto impulsado por la mayor culpabilidad disposicional asignada a los robots que cometen comportamientos impopulares- y se mostraron más seguros en sus juicios actitudinales de los robots que de los humanos. Los resultados demostraron algunas diferencias en las impresiones globales de los humanos y los robots en función de la valencia y la elección del comportamiento. Los jueces se formaron impresiones más generosas del agente robot cuando su comportamiento impopular fue coaccionado frente a la elección; una tendencia que no se mostró cuando se formaron impresiones del agente humano. Se abordan las implicaciones de atribuir el comportamiento del robot a la disposición, o de confundir a los agentes robóticos con sus acciones.

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje