Robots asesinos y su cumplimiento de los principios del derecho de la guerra

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3840427

Los robots ya no son ficticios como solían ser hace años. Los avances tecnológicos y los desarrollos en el desarrollo de la inteligencia artificial (IA) han permitido la innovación de robots que llevan a cabo diversas funciones. Entre ellas se encuentran las innovaciones robóticas destinadas a reemplazar a los soldados en los campos de batalla. Algunos estudiosos han argumentado que estos robots son más éticos y clínicos que los soldados humanos. Otros han argumentado que debería prohibirse el creciente nivel de autonomía en estos robots que conduce a la innovación de armas totalmente autónomas. Argumentan que la capacidad de estas armas para diferenciar entre civiles y combatientes y, por lo tanto, puede causar la muerte innecesaria de civiles. Este artículo analiza lo difícil que es que el algoritmo aplique el derecho de la guerra (derecho internacional humanitario) al analizar cómo los robots asesinos (también conocidos como sistema autónomo de armas) no pueden cumplir con los principios básicos del derecho de la guerra como la distinción, la proporcionalidad y la precaución. Estos principios exigen decisiones no cuantificables que necesitan personajes similares a los humanos que los robots asesinos no poseen. El documento también argumenta cómo el derecho humanitario acepta la responsabilidad de una agencia humana, lo que dificulta determinar la responsabilidad en casos que involucran robots asesinos. La metodología de investigación cualitativa se ha aplicado al siguiente artículo.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social