El conflicto entre el afán de castigo de las personas y los sistemas jurídicos

https://www.frontiersin.org/articles/10.3389/frobt.2021.756242/full

La regulación de la inteligencia artificial (IA) se ha hecho necesaria a la luz de su despliegue en escenarios de alto riesgo. Este artículo explora la propuesta de extender la personalidad jurídica a la IA y a los robots, que aún no había sido examinada desde el punto de vista del público en general. Presentamos dos estudios (N = 3.559) para obtener la opinión de la gente sobre la personalidad jurídica electrónica frente a los modelos de responsabilidad existentes. Nuestro estudio revela el deseo de la gente de castigar a los agentes automatizados aunque a estas entidades no se les reconozca ningún estado mental. Además, la gente no cree que el castigo de los agentes automatizados cumpla con la disuasión ni con la retribución y no está dispuesta a concederles condiciones previas de castigo legal, a saber, independencia física y bienes. En conjunto, estos resultados sugieren un conflicto entre el deseo de castigar a los agentes automatizados y su percepción de impracticabilidad. Concluimos discutiendo cómo las futuras decisiones legales y de diseño pueden influir en la reacción del público ante las malas acciones de los agentes automatizados.


1 Introducción

Los sistemas de inteligencia artificial (IA) se han hecho omnipresentes en la sociedad. Para descubrir dónde y cómo afectan estas máquinas1 a la vida de las personas no hay que ir muy lejos. Por ejemplo, estos agentes automatizados pueden asistir a los jueces en la toma de decisiones sobre fianzas y elegir a qué información se exponen los usuarios en Internet. También pueden ayudar a los hospitales a priorizar a los que necesitan asistencia médica y sugerir quiénes deben ser el objetivo de las armas durante la guerra. A medida que estos sistemas se generalizan en una serie de entornos moralmente relevantes, mitigar el modo en que su despliegue podría ser perjudicial para quienes están sometidos a ellos se ha convertido en algo más que una necesidad. Académicos, empresas, instituciones públicas y organizaciones sin ánimo de lucro han elaborado varias directrices éticas para promover el desarrollo responsable de las máquinas que afectan a la vida de las personas (Jobin et al., 2019). Sin embargo, ¿son suficientes las directrices éticas para garantizar el cumplimiento de estos principios? La ética carece de mecanismos para garantizar su cumplimiento y puede convertirse rápidamente en una herramienta para escapar de la regulación (Resseguier y Rodrigues, 2020). La ética no debe ser un sustituto de los principios aplicables, y el camino hacia el despliegue seguro y responsable de la IA parece cruzarse con la ley.

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social