Responsabilidad moral artificial: cómo podemos y no podemos responsabilizar a las máquinas
https://www.researchgate.net/publication/352294394_Artificial_Moral_Responsibility_How_We_Can_and_Cannot_Hold_Machines_Responsible
A menudo se piensa que nuestra capacidad para localizar la responsabilidad moral es una condición necesaria para llevar a cabo una práctica médica moralmente permisible, participar en una guerra justa y en otras tareas de alto riesgo. Sin embargo, con la creciente dependencia de los sistemas artificialmente inteligentes, podemos estar enfrentándonos a una brecha de responsabilidad cada vez mayor, que, según algunos, no puede ser superada por los conceptos tradicionales de responsabilidad. ¿Cómo podemos entonces, si es que podemos, hacer uso de las tecnologías emergentes cruciales? Según Colin Allen y Wendell Wallach, la llegada de los llamados "agentes morales artificiales" (AMA) es inevitable. Sin embargo, esta noción puede parecer que retrasa el problema, dejando a los que tienen interés en desarrollar tecnología autónoma con un dilema. Es posible que tengamos que reducir nuestros esfuerzos en el despliegue de los AMAs (o al menos mantener la supervisión humana); de lo contrario, debemos actualizar rápida y drásticamente nuestras normas morales y legales de una manera que garantice la responsabilidad por los daños potencialmente evitables. En este artículo se invoca el concepto contemporáneo de responsabilidad para mostrar cómo se puede responsabilizar a los sistemas artificialmente inteligentes. Aunque a muchos teóricos les preocupa lo suficiente el desarrollo de concepciones artificiales de la agencia o la explotación de nuestra actual incapacidad para regular las innovaciones valiosas, la propuesta que aquí se hace destaca la importancia de -y una base plausible para- una noción viable de responsabilidad moral artificial.
Comentarios
Publicar un comentario