¿Quién es responsable cuando los sistemas autónomos fallan?
A medida que los sistemas de inteligencia artificial (IA) más autónomos operan en nuestro mundo, la necesidad de abordar los problemas de responsabilidad y rendición de cuentas se ha vuelto claros. Sin embargo, si el resultado del accidente de conducción autónoma de Uber es un presagio de lo que se avecina, hay motivo de preocupación. ¿Es una asignación de responsabilidad apropiada solo para Rafaela Vásquez -y no Uber, el actor que desarrolló y desplegó la tecnología, ni el estado de Arizona, que permitió que las pruebas se llevaran a cabo en primer lugar- sean responsables?
"La ironía de la automatización": en la práctica, la automatización no elimina el error humano, sino que crea oportunidades para nuevos tipos de error.
Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn)
Comentarios
Publicar un comentario