Jefe de policía de Detroit: el software de reconocimiento facial identifica erróneamente el 96% del tiempo

La policía de Detroit ha utilizado tecnología de reconocimiento facial poco confiable casi exclusivamente contra personas negras hasta el momento en 2020, según las propias estadísticas del Departamento de Policía de Detroit. El uso de la tecnología por parte del departamento ganó la atención nacional la semana pasada después de que la Unión Estadounidense de Libertades Civiles y el New York Times revelaran el caso de Robert Julian-Borchak Williams, un hombre que fue arrestado injustamente debido a la tecnología.


Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social