¿Se aplica el sesgo de correspondencia a los robots sociales? Atribuciones disposicionales y situacionales del comportamiento de los humanos frente al de los robots

https://www.frontiersin.org/articles/10.3389/frobt.2021.788242/full

Cada vez más, las personas interactúan con comunicadores automáticos encarnados y se enfrentan al reto de comprender su naturaleza y su comportamiento. El error fundamental de atribución (FAE, a veces denominado sesgo de correspondencia) es la tendencia de los individuos a dar demasiada importancia a las explicaciones basadas en la personalidad o en la disposición para el comportamiento de otras personas, mientras que dan poca importancia a las explicaciones situacionales. Este efecto se ha examinado a fondo con humanos, pero ¿hacen las personas las mismas inferencias causales cuando interpretan las acciones de un robot? En comparación con las personas, los robots sociales son menos autónomos y agénticos porque su comportamiento está totalmente determinado por los humanos en el bucle, la programación y las elecciones de diseño. No obstante, las personas asignan a los robots agencia, intencionalidad, personalidad y culpa. Los resultados de un experimento demostraron que los participantes hacían inferencias de correspondencia al evaluar tanto a los hablantes humanos como a los robóticos, atribuyendo su comportamiento a actitudes subyacentes incluso cuando estaba claramente coaccionado. Sin embargo, cometieron un sesgo de correspondencia más fuerte en el caso del robot -un efecto impulsado por la mayor culpabilidad disposicional asignada a los robots que cometen comportamientos impopulares- y se mostraron más seguros en sus juicios actitudinales de los robots que de los humanos. Los resultados demostraron algunas diferencias en las impresiones globales de los humanos y los robots en función de la valencia y la elección del comportamiento. Los jueces se formaron impresiones más generosas del agente robot cuando su comportamiento impopular fue coaccionado frente a la elección; una tendencia que no se mostró cuando se formaron impresiones del agente humano. Se abordan las implicaciones de atribuir el comportamiento del robot a la disposición, o de confundir a los agentes robóticos con sus acciones.

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

El estado de la IA en 10 gráficos

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles