¿Programando los derechos humanos y las responsabilidades? “El experimento de la máquina moral” y la necesidad de un futuro de los Vehículos Autónomos más “humano”

 Se espera que las situaciones de dilema que involucran la elección de qué vida humana salvar en el caso de accidentes inevitables surjan solo en raras ocasiones en el contexto de los vehículos autónomos (AV). No obstante, la comunidad científica ha dedicado una atención significativa a encontrar decisiones automatizadas apropiadas y (socialmente) aceptables en el caso de que los AV o los conductores de AV tuvieran que enfrentarse a tales situaciones. Awadand y sus colegas, en su ahora famoso artículo "The MoralMachine Experiment", utilizaron un "juego serio en línea multilingüe" para recopilar datos a gran escala sobre cómo los ciudadanos querrían que los vehículos autónomos resolvieran dilemas morales en el contexto de accidentes inevitables ". conjunto de datos filosóficamente útiles de intuiciones de sillón. Sin embargo, sostenemos que la aplicación de sus hallazgos al desarrollo de “principios globales y socialmente aceptables para el aprendizaje automático” violaría los principios básicos de la ley de derechos humanos y los principios fundamentales de la dignidad humana. Para presentar sus argumentos, nuestro documento cita principios de derecho de responsabilidad civil, jurisprudencia relevante, disposiciones de la Declaración Universal de Derechos Humanos y normas del Código de Ética Alemán para la Conducción Autónoma y Conectada.

https://www.readcube.com/articles/10.1007/s11569-020-00374-4

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social