Por qué la máquinas no pueden ser morales

 El hecho de que las decisiones del mundo real tomadas por inteligencias artificiales (IA) a menudo tengan una carga ética ha llevado a varias autoridades a abogar por el desarrollo de "máquinas morales". Sostengo que el proyecto de construir “ética” “en” máquinas presupone una comprensión errónea de la naturaleza de la ética. Basándome en el trabajo del filósofo australiano Raimond Gaita, sostengo que los dilemas éticos son problemas para personas en particular y no (solo) problemas para todos los que enfrentan una situación similar. Además, la fuerza de una afirmación ética depende en parte de la historia de vida de la persona que la hace. Por estas dos razones, las máquinas podrían, en el mejor de los casos, diseñarse para proporcionar un simulacro superficial de la ética, que tendría una utilidad limitada para enfrentar los dilemas éticos y políticos asociados con la IA.

https://link.springer.com/epdf/10.1007/s00146-020-01132-6?sharing_token=MCflXPvE6Zhx8XLZQ3v7wfe4RwlQNchNByi7wbcMAY77XkFDBtIjSQXBdOwfT-6VFxK6j_84KzP8NbhzYbH-z1xYL4D7A6mKeEQUvRg6Fcf5JzMhRnj106oUrimEEERgjDenm25MyCymVpdhWMi5WMVDU8pww714b-EX-lsm7Q0%3D

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social