Governando la IA en la banca

La naturaleza de los riesgos involucrados en el uso de IA por parte de los bancos no difiere materialmente de los que enfrentan otras industrias. Son los resultados los que difieren en caso de que se materialicen los riesgos: el daño financiero podría ser causado a los consumidores, a las propias instituciones financieras o incluso a la estabilidad del sistema financiero global.

Nuestra revisión revela que los riesgos importantes incluyen sesgo en los datos que se envían a los sistemas de IA. Esto podría dar lugar a decisiones que perjudiquen injustamente a individuos o grupos de personas (por ejemplo, a través de medidas discriminatorias préstamo). El riesgo de "caja negra" surge cuando los pasos que toman los algoritmos no se pueden rastrear y las decisiones que toman no se pueden explicar. Excluir a los humanos de los procesos que involucran IA debilita su monitoreo y podría amenazar la integridad de los modelos (consulte la tabla para obtener una lista completa de los riesgos de AI en la banca).


Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social