IA responsable y responsabilidad moral: una apreciación común

 La responsabilidad es una de las palabras de moda más extendidas en la ética de la inteligencia artificial (IA) y la robótica. Sin embargo, el término a menudo permanece sin fundamento cuando se emplea en estos importantes dominios tecnológicos. De hecho, nociones como "IA responsable" y "robótica responsable" pueden parecer atractivas, ya que parecen transmitir un sentido de bondad moral o aprobación ética, lo que incita a conexiones psicológicas con la autorregulación, la aceptación social o la corrección política. Para que la IA y la ética se unan de manera verdaderamente armoniosa, tendremos que trabajar para establecer una apreciación común. En este comentario, analizo tres variedades del término e invoco ideas de la literatura sobre ética analítica como un medio para ofrecer una comprensión sólida de la responsabilidad moral en la tecnología emergente. Si bien no deseo acusar a ninguna de las partes de un uso incorrecto, espero que juntos los investigadores en IA y ética puedan estar mejor posicionados para apreciar y desarrollar nociones de responsabilidad en los dominios tecnológicos.

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social