Sesgos en algoritmos de selección de personal

El atractivo de los productos de reclutamiento impulsados ​​por IA proviene del hecho de que ayudan a las empresas a llegar a muchos más candidatos de los que podrían alcanzar con las formas más tradicionales (sitios web de carreras corporativas, programas de referencia, etc.). Del mismo modo, también hacen que sea extremadamente fácil para los posibles candidatos enviar sus CV a múltiples funciones a la vez con solo hacer clic en un botón. El resultado es una escalada tecnológica mutua tanto de los empleadores como de los candidatos. Una vez que se lanza la red, estos productos ayudan a las compañías a procesar eficientemente a esos candidatos a través del embudo de reclutamiento. La capacidad de procesar cientos de aplicaciones en cuestión de minutos con un sistema automatizado no solo es un gran beneficio en términos de escalabilidad, sino que también reduce el tiempo de contratación y, por lo tanto, potencialmente el costo de contratación (suponiendo que las opciones fueran correctas) y brinda contratar equipos más espacio para desarrollar estrategias en lugar de tratar constantemente de estar al tanto de las transacciones de contratación.

Otra forma en que se comercializan estos productos de reclutamiento de IA es como una alternativa a las decisiones sesgadas de contratar gerentes y reclutadores y, por lo tanto, proporcionar un procesamiento más estándar de las solicitudes. El gran problema con esta declaración es que los algoritmos no son independientes de sus creadores y sus prejuicios, ni son independientes de los datos históricos utilizados para construir sus modelos. Los algoritmos son creados por personas, sobre personas, para personas. En otras palabras, "los algoritmos son opiniones incrustadas en el código" (Cathy O’Neill, 2017) Desde hace muchos años, las empresas han implementado una serie de iniciativas para combatir el tema y las decisiones parciales involucradas en las decisiones de contratación. Esto incluyó la capacitación de reclutadores y gerentes de contratación sobre prejuicios inconscientes para que fueran conscientes de su prejuicio y tomaran decisiones intencional y proactivamente más objetivas; cegar / ocultar ciertos campos en currículums o aplicaciones para que los gerentes de contratación no se sesguen con nombres, direcciones, universidades, etc. obligar al gerente de contratación y reclutadores a tener el mismo número de candidatos masculinos y femeninos en cada etapa del embudo de reclutamiento; creando mesas redondas de comités de contratación donde los candidatos son calificados según criterios objetivos y el comité se reta entre sí en sus puntajes. La lista sigue y sigue.


Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social