Privacidad débil, adquisiciones débiles: el estado del reconocimiento facial en Canadá

https://www.mediatechdemocracy.com/work/weak-privacy-weak-procurement-the-state-of-facial-recognition-in-canada

FRT se utiliza para identificar rostros en imágenes o videos digitales [10]. La tecnología nació de la “visión por computadora”, un campo de estudio que busca replicar el proceso humano de observar patrones en imágenes y videos [11]. Se puede utilizar una tecnología de "reconocimiento" similar para huellas dactilares, material genético, latidos del corazón y muchos otros tipos de datos biométricos o corporales [12]. FRT se puede implementar en tiempo real, lo que permite una identificación instantánea. Las fuerzas policiales ya han tenido acceso a dicha tecnología durante varios años con transparencia y rendición de cuentas inadecuadas. Existen múltiples desafíos superpuestos en las prácticas de contratación pública que permiten a empresas como Clearview AI operar sin hacer un seguimiento público de sus implementaciones.


El escándalo de Clearview AI destaca cómo las empresas de tecnología se aprovechan de los débiles requisitos de privacidad y adquisiciones en Canadá para aumentar el capital y el poder con el pretexto de la protección y seguridad de las fuerzas del orden. Este es solo un ejemplo de cómo el gobierno utiliza las inversiones públicas para apoyar la economía de la innovación con tecnologías de IA [13]. En este ensayo, demostramos que el escándalo de Clearview AI revela importantes "vulnerabilidades" existentes en la ley de privacidad de Canadá y las prácticas de adquisición de tecnología del sector público. Nos basamos en el marco analítico de la seguridad sociotécnica, que identifica fallas en los sistemas sociales que se entrelazan con los sistemas tecnológicos, con el objetivo de proteger a comunidades específicas del daño posibilitado por estas fallas [14]. Identificamos dos vulnerabilidades principales cuando se trata de software de reconocimiento facial: (i) La omisión de información biométrica es una debilidad en la ley de privacidad de Canadá que premia la eficiencia organizacional sobre la protección de la dignidad, y (ii) las empresas de tecnología como Clearview AI podrían fácilmente aprovechar los requisitos de transparencia (o la falta de ellos) cuando los organismos públicos en Canadá celebran contratos con empresas privadas.

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje