Jefe de policía de Detroit: el software de reconocimiento facial identifica erróneamente el 96% del tiempo

La policía de Detroit ha utilizado tecnología de reconocimiento facial poco confiable casi exclusivamente contra personas negras hasta el momento en 2020, según las propias estadísticas del Departamento de Policía de Detroit. El uso de la tecnología por parte del departamento ganó la atención nacional la semana pasada después de que la Unión Estadounidense de Libertades Civiles y el New York Times revelaran el caso de Robert Julian-Borchak Williams, un hombre que fue arrestado injustamente debido a la tecnología.


Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje