Responsabilidades en la Adopción de la IA

Conforme se adopta la IA surgen problemas como la responsabilidad cuandolas cosas van mal.

Mientras se adopta la IA en la toma de decisiones automatizada, la toma de decisiones humana se desvanece. Desde la introducción de los vehículos autónomos el objetivo de los fabricantes ha sido que los vehículos autónomos sean más seguros que los conducidos por humanos.

Existe mucha legislación para descargar en el asegurador, así como leyes civiles sobre la responsabilidad de los robots y la IA.

El informe de Responsabilidad de la UE con la IA y otras tecnologías. Algunas de estas guías incluyen;
  • Una persona que opera una tecnología permitida que, sin embargo, conlleva un mayor riesgo de daño a los demás, por ejemplo, robots impulsados ​​por IA en espacios públicos, debe estar sujeta a una responsabilidad estricta por los daños resultantes de su funcionamiento.
  • En situaciones en las que un proveedor de servicios que garantiza el marco técnico necesario tiene un mayor grado de control que el propietario o usuario de un producto o servicio real equipado con IA, esto debe tenerse en cuenta para determinar quién opera principalmente la tecnología.
  • A una persona que utiliza una tecnología que no representa un mayor riesgo de daño para otros aún se le debe exigir que cumpla con los deberes de seleccionar, operar, monitorizar y mantener adecuadamente la tecnología en uso y, en su defecto, debe ser responsable por el incumplimiento de tal deberes si tiene la culpa.
  • Una persona que utiliza una tecnología que tiene un cierto grado de autonomía no debería ser menos responsable del daño resultante que si dicho daño hubiera sido causado por un auxiliar humano.
  • Los fabricantes de productos o contenido digital que incorporen tecnología digital emergente deben ser responsables por los daños causados ​​por defectos en sus productos, incluso si el defecto fue causado por cambios realizados en el producto bajo el control del productor después de haber sido comercializado, y más .
Las empresas deben tener planes de responsabilidad por IA.



Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social