Inteligencia artificial, atribución de responsabilidad y justificación relacional de la explicabilidad
Este artículo analiza el problema de la atribución de responsabilidades que plantea el uso de tecnologías de inteligencia artificial (IA). Se supone que solo los humanos pueden ser agentes responsables; sin embargo, esto por sí solo ya suscita muchas cuestiones, que se discuten a partir de dos condiciones aristotélicas de la responsabilidad. Junto al conocido problema de muchas manos, se identifica el tema de “muchas cosas” y se enfatiza la dimensión temporal cuando se trata de la condición de control. Se presta especial atención a la condición epistémica, que llama la atención sobre los temas de transparencia y explicabilidad. Sin embargo, a diferencia de las discusiones estándar, se argumenta entonces que este problema de conocimiento sobre los agentes de responsabilidad está vinculado al otro lado de la relación de responsabilidad: los destinatarios o “pacientes” de responsabilidad, quienes pueden exigir razones de las acciones y decisiones tomadas por usando IA. Inspirada por un enfoque relacional, la responsabilidad como rendición de cuentas ofrece una importante justificación adicional, si no primaria, para la explicabilidad basada, no en la agencia, sino en la paciencia.
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).
Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.
Comentarios
Publicar un comentario