La complejidad confusa de la acción de las máquinas: Un relato hobbesiano de la responsabilidad de las máquinas

https://www.igi-global.com/pdf.aspx?tid=269437&ptid=254203&ctid=4&oa=true&isxn=9781799861485 


RESUMEN

En este artículo, los conceptos centrales del marco de representación y responsabilidad de Thomas Hobbes a la cuestión de la responsabilidad de las máquinas, la brecha de responsabilidad y la brecha de retribución. El método es el análisis filosófico e implica la aplicación de teorías de la teoría política a la ética de la tecnología. Un velo de complejidad crea la ilusión de que las acciones de las máquinas pertenecen a un ámbito misterioso e imprevisible, y algunos sostienen que esta imprevisibilidad absuelve a los diseñadores de su responsabilidad. Este movimiento crearía un riesgo moral relacionado tanto con (a) el aumento estratégico de la imprevisibilidad

y (b) asumir más riesgos si los humanos responsables no tienen que asumir los costes de los riesgos que crean. La teoría de Hobbes permite la atribución clara y posiblemente justa de la acción al tiempo que permite el desarrollo y la innovación necesarios. La innovación estará permitida siempre que sea compatible con el orden social y siempre que los efectos beneficiosos superen las preocupaciones por el aumento del riesgo. Las cuestiones de responsabilidad se consideran aquí cuestiones políticas.


Palabras clave

Atribución, Complejidad, Hobbes, Instrumentalismo, Responsabilidad


INTRODUCCIÓN

¿Cómo podemos atribuir elogios, culpas y responsabilidades cuando las máquinas realizan acciones? La cuestión de la responsabilidad y la agencia de las máquinas es antigua, pero parece que seguimos confundidos por la complejidad de las nuevas tecnologías. Cuando las máquinas complicadas actúan, por así decirlo, por sí solas, sin que sus diseñadores puedan controlar o predecir y comprender plenamente sus acciones, ¿se les puede seguir considerando responsables?

En este artículo se aplican los conceptos básicos del marco de representación y responsabilidad de Thomas Hobbes a la cuestión de las máquinas. Esto proporciona una forma simple y

de entender la atribución de las acciones de las máquinas y, al mismo tiempo, reduce la brecha de la responsabilidad y la brecha de la retribución que se discute en la literatura sobre la agencia y la responsabilidad de las máquinas (Danaher, 2016) y responsabilidad (Danaher, 2016; de Jong, 2019; Gunkel, 2017; Köhler, Roughley, & Sauer, 2018; Nyholm, 2018; Tigard, 2020). Este relato constituye un desafío a los enfoques modernos de la responsabilidad de las máquinas, y en particular la opinión de que la complejidad de las máquinas modernas trasciende las cuentas tradicionales de la responsabilidad (Matthias, 2004). El desafío consiste en volver a los fundamentos para mostrar que los fundamentos no son necesariamente incapaces de tratar las acciones de las máquinas complejas. En la línea trazada por Köhler et al. (2018), Robillard (2018) y Tigard (2020), este artículo concluye que las lagunas que causa preocupación podrían ser, de hecho, ilusorias, o simplemente el producto de la aplicación de marcos inadecuados para entender la atribución de acciones. Además, el marco hobbesiano contiene una distinción entre agentes naturales y artificiales, representación y responsabilidad de las acciones, y un marco político general que permite la atribución de acciones a las máquinas por razones pragmáticas. Para determinar si la inteligencia artificial (IA) puede ser responsable, primero debemos entender lo que constituye una persona, un autor y un actor. El enfoque hobbesiano ofrece una forma de evitar de evitar gran parte de la confusión y la controversia actuales, al basarse en una teoría instrumental de la responsabilidad y la responsabilidad que no cae en las objeciones comunes a dicho enfoque, como la asfixia de la

la innovación (Gunkel, 2017). Se argumenta que ahogar la innovación es a veces necesario y legítimo, y que la cuestión de qué riesgos aceptar para lograr la innovación y el crecimiento económico, por ejemplo, está sujeta a la deliberación política, ya que la innovación y el crecimiento son solo dos entre muchos objetivos de la sociedad. Al mismo tiempo, el marco permite considerar a los no humanos como personas artificiales, si tal enfoque se considera beneficioso. Las máquinas, por tanto, podrían tener una forma de persona al estilo de las sociedades anónimas. El marco hobbesiano también muestra cómo se puede considerar a la IA como personas artificiales, y si tal medida crea lagunas, éstas son antiguas lagunas.

En primer lugar, se examina la cuestión de la atribución de las acciones de las máquinas, junto con el marco hobbesiano de las personas y la representación. En segundo lugar, se considera la naturaleza de las máquinas modernas, ya que se afirma que su complejidad constituye un reto fundamental para los enfoques tradicionales de atribución de la responsabilidad. En tercer lugar, se examinan las brechas de responsabilidad y retribución a la luz del marco hobbesiano.

La teoría de Hobbes permite una forma clara y posiblemente justa de atribuir la acción de las máquinas, al tiempo que permite el desarrollo y la innovación necesarios. La innovación responsable y beneficiosa siempre que sea compatible con el orden social, y si los efectos beneficiosos superan las preocupaciones sobre el aumento del riesgo y el peligro moral.


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje