Equipo de algoritmos humanos en el reconocimiento facial: cómo los resultados de los algoritmos sesgan cognitivamente la toma de decisiones humanas

 En las aplicaciones de reconocimiento facial, los humanos a menudo se asocian con algoritmos, revisando los resultados del algoritmo para tomar una decisión de identidad. Sin embargo, pocos estudios han medido explícitamente cómo los algoritmos influyen en el rendimiento de la coincidencia de rostros humanos. Un estudio que examinó esta interacción encontró un deterioro preocupante de la precisión humana en presencia de errores de algoritmo. Realizamos un experimento para examinar cómo las decisiones previas sobre la identidad del rostro influyen en los juicios humanos posteriores sobre la similitud del rostro. Se pidió a 376 voluntarios que calificaran la similitud de los pares de caras a lo largo de una escala. A los voluntarios que realizaban la tarea se les dijo que estaban revisando decisiones de identidad tomadas por diferentes fuentes, ya sea una computadora o un ser humano, o se les dijo que tomaran su propio juicio sin información previa. Replicando resultados pasados, encontramos que las decisiones de identidad anteriores, presentadas como etiquetas, influían en los propios juicios de identidad de los voluntarios. Extendemos estos resultados de la siguiente manera. Primero, mostramos que la influencia de las etiquetas de decisión de identidad fue independiente de la fuente de decisión indicada (humana o computadora) a pesar de la mayor desconfianza de los voluntarios en la capacidad de identificación humana. En segundo lugar, aplicando un marco de la teoría de detección de señales, mostramos que las etiquetas de decisión de identidad anteriores no redujeron la atención de los voluntarios al par de caras. El desempeño de la discriminación fue el mismo con y sin las etiquetas. En cambio, las etiquetas de decisiones de identidad previas alteraron el criterio interno de los voluntarios utilizado para juzgar un par de rostros como "coincidente" o "no coincidente". Esto cambió los juicios de similitud de pares de rostros de los voluntarios en un paso completo a lo largo de la escala de respuesta. Nuestro trabajo muestra cómo la coincidencia de rostros humanos se ve afectada por las etiquetas de decisiones de identidad anteriores y discutimos cómo esto puede limitar la precisión total de los equipos de algoritmos humanos que realizan tareas de coincidencia de rostros.

Descubrimos que las decisiones de certeza que coinciden con el rostro humano se modifican sistemáticamente por información de identidad previa. Cuando se les dio información de identidad previa en forma de etiquetas "iguales" o "diferentes", nuestros voluntarios estaban más seguros de que las caras etiquetadas como "iguales" son similares y las caras etiquetadas como "diferentes" son diferentes. Esto sesgó sus juicios de certeza sobre la similitud de rostros, pero no redujo su capacidad para discriminar rostros. Curiosamente, los voluntarios informaron que desconfían de la capacidad de identificación humana más que de la capacidad de identificación por computadora. Sin embargo, las fuentes humanas y informáticas de información de identidad previa sesgaron igualmente las respuestas de certeza. En general, esto muestra que los algoritmos de reconocimiento facial incorporados en un proceso humano pueden influir en las respuestas humanas, probablemente limitando el rendimiento total del sistema.

https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0237855

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social