IA responsable y responsabilidad moral: una apreciación común

 La responsabilidad es una de las palabras de moda más extendidas en la ética de la inteligencia artificial (IA) y la robótica. Sin embargo, el término a menudo permanece sin fundamento cuando se emplea en estos importantes dominios tecnológicos. De hecho, nociones como "IA responsable" y "robótica responsable" pueden parecer atractivas, ya que parecen transmitir un sentido de bondad moral o aprobación ética, lo que incita a conexiones psicológicas con la autorregulación, la aceptación social o la corrección política. Para que la IA y la ética se unan de manera verdaderamente armoniosa, tendremos que trabajar para establecer una apreciación común. En este comentario, analizo tres variedades del término e invoco ideas de la literatura sobre ética analítica como un medio para ofrecer una comprensión sólida de la responsabilidad moral en la tecnología emergente. Si bien no deseo acusar a ninguna de las partes de un uso incorrecto, espero que juntos los investigadores en IA y ética puedan estar mejor posicionados para apreciar y desarrollar nociones de responsabilidad en los dominios tecnológicos.

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje