Un enfoque normativo de la agencia moral artificial

 Este artículo propone una redirección del debate filosófico sobre los "agentes morales artificiales" (AMA) (Allen et al. 2000), es decir, la noción de entidades artificiales, como computadoras y robots, siendo capaz de hacer el mal  y posiblemente ser considerado responsable  por tal fechoría.  Proponemos que este debate debería reorientarse para llevarse a cabo de forma más directa. normativo  términos, centrándose en la cuestión de en qué medida las entidades arti fi ciales debería  Estar involucrado en diversas prácticas que normalmente asumen una mayor agencia, como la atribución de responsabilidad. El argumento de esta propuesta se basa en una revisión de la literatura de la AMA, que se ha centrado principalmente en cuestiones de filosofía de la mente y la acción, metafísica y epistemología. Argumentamos que la forma de este debate no informa la toma de decisiones prácticas sobre la participación de entidades arti fi ciales en prácticas que asumen agencia moral. Proporcionamos ejemplos de investigaciones filosóficas recientes que han adoptado enfoques normativos para AMA. También formulamos cuestiones importantes que se abordarán en futuras investigaciones. En particular, destacamos lo que llamamos problema de demarcación  para AMA que necesita más análisis dentro de un enfoque normativo de este tema. La motivación para encontrar la discusión de AMA importante e interesante probablemente ha cambiado a lo largo de las décadas. Originalmente, parece haber sido principalmente un área interesante para la aplicación de la teoría filosófica y un foro para reflexionar sobre cuestiones filosóficas entre científicos e ingenieros informáticos.

Sin embargo, en las últimas dos décadas se ha producido un cambio drástico en el debate sobre la IA y los robots desde un punto de vista práctico, a medida que se desarrollan y despliegan sistemas y máquinas cada vez más avanzados, autónomos y que evolucionan a sí mismos en circunstancias prácticas de transporte, vigilancia, atención sanitaria, finanzas, derecho. y toma de decisiones públicas, la industria del sexo, la ciencia, el arte y, no menos importante, el ejército. Cuanto más capaces de autorregulación y acción independiente se vuelven estas máquinas, más urgente es decidir en qué medida deben ser consideradas y tratadas como agentes morales. La pregunta que hasta ahora ha dominado el debate de la AMA se puede formular de la siguiente manera:

¿Qué condiciones, si las hay, son necesarias y suficientes para que una entidad artificial sea un agente moral (es decir, un AMA)?

https://www.academia.edu/43115928/A_Normative_Approach_to_Artificial_Moral_Agency?email_work_card=view-paper

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social