Sobre la posición moral socio-relacional de la IA: un estudio empírico con arte generado por IA
https://www.frontiersin.org/articles/10.3389/frobt.2021.719944/full
La posición moral de los robots y los sistemas de inteligencia artificial (IA) se ha convertido en un tema ampliamente debatido por la investigación normativa. Sin embargo, este debate se ha centrado principalmente en los sistemas desarrollados para funciones sociales, por ejemplo, los robots sociales. Dada la creciente interdependencia de la sociedad con las máquinas no sociales, se ha hecho imperativo examinar cómo las reivindicaciones normativas existentes podrían extenderse a sectores específicos perturbados, como la industria del arte. Inspirada en las propuestas de Gunkel y Coeckelbergh de basar el estatus moral de las máquinas en las relaciones sociales, esta investigación presenta experimentos en línea (∑N = 448) que comprueban si la interacción con el arte generado por la IA afecta a la percepción de la posición moral de su creador, es decir, del sistema generador de la IA, y cómo lo hace. Nuestros resultados indican que la evaluación de la falta de ánimo de un sistema de IA podría influir en la forma en que las personas evalúan posteriormente el arte generado por la IA. También encontramos que la sobrevaloración de las imágenes generadas por la IA podría afectar negativamente a la percepción de la agencia de su creador. Sin embargo, nuestros experimentos no sugieren que la interacción con el arte generado por la IA tenga un efecto significativo en la percepción de la posición moral de la máquina. Estos resultados revelan que los enfoques socio-relacionales de los derechos de la IA podrían entrelazarse con las tesis de la posición moral basadas en la propiedad. Arrojamos luz sobre cómo los estudios empíricos pueden contribuir al debate sobre la IA y los derechos de los robots al revelar la percepción pública de esta cuestión.
1 Introducción
A medida que los robots y los sistemas de inteligencia artificial (IA) se generalizan, los estudiosos se preguntan si la sociedad debe tener alguna responsabilidad hacia ellos. Esta indagación, también llamada debate sobre los "derechos de los robots" (Gunkel, 2018b), cuestiona de manera integral si estos sistemas tienen importancia moral, es decir, si se les debe conceder o reconocer un cierto nivel de categoría moral. Los académicos han expresado una pluralidad de opiniones sobre este tema. Los que se oponen a la perspectiva denuncian la idea argumentando que estas entidades son ontológicamente diferentes de los humanos (Miller, 2015). Otros sostienen que este debate se produce a expensas de cuestiones morales más destacadas (Birhane y van Dijk, 2020) y que podría conducir a una perturbación social (Bryson, 2018). Por el contrario, algunos académicos proponen que los robots y los sistemas de IA deberían tener importancia moral si desarrollan conciencia o sensibilidad (Torrance, 2008). Incluso si no llegan a ser conscientes, la sociedad podría optar por proteger la IA y los robots para desalentar el comportamiento humano inmoral (Darling, 2016).
Esta investigación está motivada por las propuestas de Gunkel y Coeckelbergh, que defienden una perspectiva socio-relacional del debate sobre los derechos de los robots. Gunkel (2018a) propone que el estatus moral se basa en las relaciones sociales más que en la ontología de una entidad, de manera que los sistemas automatizados podrían importar moralmente ante las interacciones sociales. En una línea similar, Coeckelbergh (2020b) sostiene que la sociedad podría otorgar a estas entidades un estatus moral debido a su valor extrínseco para los seres humanos y sugiere que a estas entidades se les podría conceder un estatus moral indirecto en función de cuánto las valoren los seres humanos.
*** Translated with www.DeepL.com/Translator (free version) ***
Comentarios
Publicar un comentario