Cómo utilizar la ética de la virtud para pensar en la posición moral de los robots sociales: una interpretación relacional en términos de prácticas, hábitos y desempeño

 Los robots sociales están diseñados para facilitar la interacción con los humanos a través del comportamiento "social". Como muestra la literatura en el campo de la interacción humano-robot, esto a veces conduce a un "mal" comportamiento hacia el robot o al "abuso" del robot. La ética de la virtud ofrece una forma útil de captar la intuición de que, aunque nadie resulta perjudicado cuando un robot es "maltratado", todavía hay algo malo en este tipo de comportamiento: daña el carácter moral de la persona que se involucra en ese comportamiento, especialmente cuando es habitual. Sin embargo, una de las limitaciones de las aplicaciones actuales de la ética de la virtud a los robots y la tecnología es su enfoque en el comportamiento individual e individual y la atención insuficiente a los aspectos temporales y corporales de la virtud. Después de posicionar su proyecto en relación con la obra de Shannon Vallor y Robert Sparrow, el presente artículo explora lo que significaría interpretar y aplicar la ética de la virtud de una manera más social y relacional y que tenga en cuenta el vínculo entre la virtud y la cuerpo. En particular, propone (1) utilizar la noción de práctica como una forma de conceptualizar cómo el comportamiento individual, la virtud de la persona y la tecnología en cuestión se relacionan con su contexto sociopráctico más amplio e historia, y (2 ) utilizar las nociones de hábito y desempeño conceptualizar la incorporación y desempeño de la virtud. Esto implica el uso de la obra de MacIntyre, pero revisada basándose en la noción de hábito de Bourdieu para resaltar el aspecto temporal, corporal y performativo de la virtud. Luego, el artículo muestra lo que esto significa para pensar sobre la posición moral de los robots sociales, por ejemplo, para la ética de los robots sexuales y para evaluar comportamientos abusivos como patear robots. El artículo concluye que este enfoque no solo nos da una mejor explicación de lo que sucede cuando las personas se comportan "mal" con los robots sociales, sino que también sugiere una virtud ética de la tecnología más integral que es completamente relacional, orientada al desempeño y capaz de no actuar. sólo reconoce pero también teoriza la dimensión temporal y corporal de la virtud.

https://link.springer.com/article/10.1007/s12369-020-00707-z

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje