Responsabilidad narrativa e inteligencia artificial
https://link.springer.com/article/10.1007/s00146-021-01375-x
La mayoría de las descripciones de la responsabilidad se centran en un tipo de responsabilidad, la responsabilidad moral, o abordan un aspecto concreto de la responsabilidad moral, como la agencia. Este artículo esboza un marco más amplio para pensar en la responsabilidad que incluye la responsabilidad causal, la responsabilidad relacional y lo que yo llamo "responsabilidad narrativa" como una forma de "responsabilidad hermenéutica", conecta estas nociones de responsabilidad con diferentes tipos de conocimiento, disciplinas y perspectivas sobre el ser humano, y muestra cómo este marco es útil para mapear y analizar cómo la inteligencia artificial (IA) desafía la responsabilidad humana y la creación de sentido de varias maneras. Movilizando recientes enfoques hermenéuticos de la tecnología, el artículo sostiene que, junto a otros tipos de responsabilidad, como la moral, y entrelazados con ella, también tenemos una responsabilidad narrativa y hermenéutica, en general y para la tecnología. Por ejemplo, es nuestra tarea como humanos dar sentido a la IA, con ella y, si es necesario, contra ella. Aunque, desde el punto de vista posthumanista, las tecnologías también contribuyen a dar sentido a las cosas, los seres humanos son los que experimentan y son portadores de la responsabilidad y siempre están al mando cuando se trata de esta responsabilidad hermenéutica. Al enfrentarnos y trabajar con un mundo de datos, correlaciones y probabilidades, estamos condenados a dar sentido. Además, esto también tiene un aspecto normativo, a veces incluso político: reconocer y asumir nuestra responsabilidad hermenéutica es importante si queremos evitar que nuestras historias se escriban en otro lugar, a través de la tecnología.
Comentarios
Publicar un comentario