NEGLIGENCIA Y USUARIOS HUMANOS DE IA

A menudo se pide a la ley de negligencia que se adapte a las nuevas tecnologías. Lo mismo ocurre con la inteligencia artificial ("IA"). Aunque la IA a menudo evoca imágenes de robots autónomos, especialmente vehículos autónomos, la mayoría de las tecnologías de IA existentes no son autónomas. Más bien, son herramientas de ayuda a la toma de decisiones que tienen como objetivo mejorar la ineficiencia, la arbitrariedad y el sesgo de las decisiones humanas. Las herramientas de ayuda a la toma de decisiones se utilizan con frecuencia en contextos en los que operan la ley de negligencia o los análogos de negligencia, incluida la medicina, el asesoramiento financiero, la seguridad de los datos y la conducción (en vehículos parcialmente autónomos). Los usuarios de estas herramientas interactúan con la IA como lo harían con cualquier otra forma de desarrollo tecnológico, incorporándola en sus prácticas de toma de decisiones existentes. En consecuencia, es importante comprender cómo el uso de estas herramientas afecta los deberes de cuidado requeridos por la ley de negligencia y la capacidad de las personas para cumplirlos. Este artículo retoma esa discusión, argumentando que AI plantea serios desafíos para la capacidad de la ley de negligencia para continuar indemnizando a los heridos. Al insertar una capa de código inescrutable, poco intuitivo y derivado estadísticamente entre un tomador de decisiones humano y las consecuencias de sus decisiones, la IA interrumpe nuestra comprensión típica de la responsabilidad por las decisiones que salieron mal. Este artículo sostiene que la naturaleza única de la IA introduce cuatro complicaciones en la negligencia: 1) la incapacidad de predecir y dar cuenta de los errores de la IA; 2) limitaciones de la capacidad física o cognitiva en la interfaz donde los humanos interactúan con la IA; 3) la introducción de vulnerabilidades de software específicas de IA en decisiones que no estaban mediadas previamente por software; y 4) preocupaciones distributivas basadas en la naturaleza estadística de la IA y el potencial de sesgo. En aquellos contextos en los que dependemos de la ley de negligencia actual para compensar las lesiones, el uso de la inteligencia artificial probablemente resultará en que los demandantes lesionados pierdan regularmente, ya que los errores dejan de ser culpa del operador y se convierten en certezas estadísticas integradas en la tecnología. Con la mayoría de las nuevas tecnologías, la ley de negligencia se adapta con el tiempo a medida que los tribunales se familiarizan con el uso adecuado de la tecnología. Pero la naturaleza única de la IA sugiere que esto puede no ocurrir sin una legislación que requiera que la IA se construya de manera interpretable y transparente, como mínimo, y que otras vías de regulación pueden ser más adecuadas para prevenir pérdidas no compensadas por las partes perjudicadas.

http://www.bu.edu/bulawreview/files/2020/09/SELBST.pdf

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social