¿Todo es justo en préstamos hipotecarios y fintech?
La IA no es inmune a los desafíos de los sesgos sistémicos. Como Sarah Myers West, investigadora postdoctoral del AI Now Institute de la Universidad de Nueva York, explicó a CBS News, "recurrimos al aprendizaje automático con la esperanza de que sean más objetivos, pero en realidad lo que están haciendo es reflejar y amplificar el historial patrones de discriminación y, a menudo, de formas que son más difíciles de ver ". Se ha creado un círculo vicioso inadvertido, mediante el cual se utilizan datos contaminados para informar decisiones futuras.
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).
Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.
Comentarios
Publicar un comentario