LA INTELIGENCIA ARTIFICIAL Y EL PROBLEMA DE LA AUTONOMÍA

 Se dice de manera rutinaria que los sistemas de inteligencia artificial (IA) operan de manera autónoma, exponiendo brechas en los regímenes regulatorios que asumen la centralidad de los actores humanos. Sin embargo, sorprendentemente se presta poca atención a lo que se entiende por "autonomía" y su relación con esas brechas. Los vehículos sin conductor y los sistemas de armas autónomos son los ejemplos más estudiados, pero surgen problemas relacionados en los algoritmos que asignan recursos o determinan la elegibilidad para programas en el sector público o privado. Este artículo desarrolla una novedosa tipología de autonomía que distingue tres desafíos regulatorios discretos que plantean los sistemas de IA: las dificultades prácticas de gestionar el riesgo asociado con las nuevas tecnologías, la moralidad de que ciertas funciones sean asumidas por las máquinas y la brecha de legitimidad cuando las autoridades públicas delegan sus poderes a los algoritmos.

https://ndlsjet.com/wp-content/uploads/2020/04/Artificial-Intelligence-and-the-Problem-of-Autonomy.pdf

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social