Entender los datos como fuente de sesgo algorítmico
https://www.ethicalintelligence.co/blog/understanding-data-as-a-source-for-algorithmic-bias
Hoy en día, los sesgos en los algoritmos de inteligencia artificial parecen ser un punto focal de controversia en el despliegue de la IA. Se han visto innumerables ejemplos de los daños ocasionados por algoritmos sesgados en los titulares de las noticias, como la infame herramienta de reclutamiento de inteligencia artificial de Amazon que clasificó injustamente los currículums de mujeres por debajo de sus contrapartes masculinas, o el algoritmo de reincidencia de la gestión de delincuentes correccionales para sanciones alternativas (COMPAS) que clasificó a los acusados negros como mucho más propensos que los acusados blancos a tener un mayor riesgo de reincidencia. Todos estos ejemplos apuntan al hecho de que el sesgo algorítmico de la IA no es meramente un problema técnico, sino también social con ramificaciones sorprendentes para la justicia social y la igualdad.
¿CÓMO SE DISEÑAN LOS ALGORITMOS? UNA MIRADA A LOS DATOS
Si bien la idea de que los algoritmos son árbitros objetivos, neutrales e imparciales del bien y el mal es ampliamente aceptada, esto no podría estar más lejos de la verdad.
Los sesgos pueden introducirse en los algoritmos a través de varios medios. El más común es a través de los conjuntos de datos en los que los algoritmos se entrenan en sí mismos. Si los datos con los que se entrena el algoritmo son poco representativos de la distribución de ciertas características en la sociedad, como la raza o el sexo, o reflejan elementos prejuiciosos y sesgados de manera prominente, entonces su resultado será un claro reflejo de esos ideales. Esta forma de sesgo, conocida como sesgo muestral, es claramente evidente en otras iteraciones anteriores de toma de decisiones automatizada. El sesgo de la muestra en los conjuntos de datos puede llevar a un sesgo de asociación, que ocurre cuando los datos de un modelo de aprendizaje automático refuerzan o multiplican un sesgo cultural. Este fue el caso cuando a un médico en el Reino Unido se le impidió acceder a un gimnasio porque el sistema de seguridad se había configurado para ver a "Dr." como un título masculino. El personal del gimnasio le dijo que el algoritmo no se podía cambiar y que en su lugar tendría que abandonar su título.
Comentarios
Publicar un comentario