El sesgo no es el único problema de las puntuaciones de crédito, y no, la IA no puede ayudar

https://www.technologyreview.com/2021/06/17/1026519/racial-bias-noisy-data-credit-scores-mortgage-loans-fairness-machine-learning/

Ya sabíamos que los datos y los algoritmos sesgados sesgan la toma de decisiones automatizada de una manera que perjudica a los grupos minoritarios y de bajos ingresos. Por ejemplo, el software utilizado por los bancos para predecir si alguien va a pagar o no la deuda de la tarjeta de crédito suele favorecer a los solicitantes blancos más ricos. Muchos investigadores y una serie de empresas emergentes están tratando de solucionar el problema haciendo que estos algoritmos sean más justos.  


Historia relacionada


La próxima guerra contra los algoritmos ocultos que atrapan a la gente en la pobreza

Un grupo cada vez mayor de abogados está descubriendo, navegando y luchando contra los sistemas automatizados que niegan a los pobres vivienda, trabajo y servicios básicos.


Pero en el mayor estudio jamás realizado sobre datos hipotecarios del mundo real, los economistas Laura Blattner, de la Universidad de Stanford, y Scott Nelson, de la Universidad de Chicago, demuestran que las diferencias en la aprobación de hipotecas entre grupos minoritarios y mayoritarios no se deben únicamente a los prejuicios, sino al hecho de que los grupos minoritarios y de bajos ingresos tienen menos datos en sus historiales de crédito.


Esto significa que cuando estos datos se utilizan para calcular una puntuación de crédito y esta puntuación de crédito se utiliza para hacer una predicción sobre el incumplimiento del préstamo, entonces esa predicción será menos precisa. Es esta falta de precisión la que conduce a la desigualdad, no sólo al sesgo.


Las implicaciones son claras: unos algoritmos más justos no solucionarán el problema. 


"Es un resultado realmente sorprendente", afirma Ashesh Rambachan, que estudia el aprendizaje automático y la economía en la Universidad de Harvard, pero que no participó en el estudio. Los sesgos y los registros crediticios irregulares son temas candentes desde hace tiempo, pero éste es el primer experimento a gran escala que analiza las solicitudes de préstamo de millones de personas reales.


Las puntuaciones crediticias agrupan una serie de datos socioeconómicos, como el historial de empleo, los registros financieros y los hábitos de compra, en una sola cifra. Además de para decidir sobre las solicitudes de préstamos, las puntuaciones de crédito se utilizan ahora para tomar muchas decisiones que cambian la vida, como las relativas a los seguros, la contratación y la vivienda.  


Para averiguar por qué los prestamistas hipotecarios tratan de forma diferente a los grupos minoritarios y mayoritarios, Blattner y Nelson recopilaron los informes crediticios de 50 millones de consumidores estadounidenses anónimos, y vincularon a cada uno de ellos con sus datos socioeconómicos extraídos de un conjunto de datos de marketing, sus escrituras de propiedad y transacciones hipotecarias, y datos sobre los prestamistas hipotecarios que les concedieron préstamos.


Una de las razones por las que este es el primer estudio de este tipo es que estos conjuntos de datos suelen ser propiedad de los investigadores y no están a su disposición. "Acudimos a una oficina de crédito y básicamente tuvimos que pagarles mucho dinero para que lo hicieran", dice Blattner.  


Datos ruidosos

A continuación, experimentaron con diferentes algoritmos de predicción para demostrar que las puntuaciones de crédito no estaban simplemente sesgadas, sino que eran "ruidosas", un término estadístico para referirse a los datos que no pueden utilizarse para hacer predicciones precisas. Pongamos por ejemplo a un solicitante de una minoría con una puntuación de crédito de 620. En un sistema sesgado, podríamos esperar que esta puntuación siempre exagerara el riesgo de ese solicitante y que una puntuación más precisa fuera de 625, por ejemplo. En teoría, este sesgo podría compensarse con alguna forma de acción afirmativa algorítmica, como la reducción del umbral de aprobación de las solicitudes de minorías.


Historia relacionada


Podcast: ¿Puede la IA arreglar tu crédito?

Los efectos de la automatización en la calificación crediticia se extienden más allá de las finanzas


Pero Blattner y Nelson demuestran que el ajuste por sesgo no tuvo ningún efecto. Descubrieron que la puntuación de 620 de una solicitante perteneciente a una minoría era, de hecho, una mala representación de su solvencia, pero esto se debía a que el error podía ir en ambas direcciones: un 620 podía ser un 625, o podía ser un 615.


Esta diferencia puede parecer sutil, pero es importante. Dado que la inexactitud proviene del ruido en los datos y no de un sesgo en la forma en que se utilizan, no puede arreglarse haciendo mejores algoritmos.


"Es un ciclo que se autoperpetúa", dice Blattner. "Damos préstamos a las personas equivocadas y una parte de la población nunca tiene la oportunidad de acumular los datos necesarios para darles un préstamo en el futuro".


Blattner y Nelson trataron entonces de medir la magnitud del problema. Construyeron su propia simulación de la herramienta de predicción de un prestamista hipotecario y calcularon lo que habría sucedido si se revirtieran las decisiones de los solicitantes limítrofes que habían sido aceptados o rechazados debido a puntuaciones inexactas. Para ello, utilizaron diversas técnicas, como la comparación de los solicitantes rechazados con otros similares que habían sido aceptados, o la observación de otras líneas de crédito que habían recibido los solicitantes rechazados, como los préstamos para automóviles.


Con todo ello, introdujeron estas hipotéticas decisiones de préstamo "precisas" en su simulación y volvieron a medir la diferencia entre los grupos. Comprobaron que cuando se suponía que las decisiones sobre los solicitantes de minorías y bajos ingresos eran tan precisas como las de los más ricos y blancos, la disparidad entre grupos se reducía en un 50%. En el caso de los solicitantes pertenecientes a minorías, casi la mitad de esta ganancia se debió a la eliminación de errores en los que el solicitante debería haber sido aprobado pero no lo fue. En el caso de los solicitantes de bajos ingresos, la ganancia fue menor porque se compensó con la eliminación de errores.

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje