El reconocimiento facial "racista" suscita preocupaciones éticas en Rusia

https://news.trust.org/item/20210705014850-6gwm1/

Desde el escaneo del rostro de los residentes para permitirles entrar en su edificio hasta la detección de sospechosos por parte de la policía en una multitud, el auge del reconocimiento facial va acompañado de un creciente coro de preocupación por los usos poco éticos de la tecnología.


Un informe publicado el lunes por investigadores estadounidenses en el que se demuestra que empresas rusas de reconocimiento facial han creado herramientas para detectar la raza de una persona ha suscitado el temor de los grupos de derechos digitales, que describen la tecnología como "hecha a propósito para la discriminación".


Las guías para desarrolladores y los ejemplos de código desvelados por la empresa de investigación de videovigilancia IPVM muestran que el software anunciado por cuatro de las mayores empresas rusas de análisis facial puede utilizar la inteligencia artificial (IA) para clasificar los rostros en función de su etnia o raza percibida. Todavía no hay indicios de que la policía rusa haya tomado como objetivo a las minorías utilizando el software desarrollado por las empresas -AxxonSoft, Tevian, VisionLabs y NtechLab-, cuyos productos se venden a las autoridades y empresas del país y del extranjero.


Sin embargo, AxxonSoft, con sede en Moscú, dijo que la investigación de la Fundación Thomson Reuters le llevó a desactivar su función de análisis étnico, afirmando en una respuesta por correo electrónico que no estaba interesada en "promover ninguna tecnología que pudiera ser una base para la segregación étnica".


Los resultados del IPVM, vistos en exclusiva por la Fundación Thomson Reuters, han despertado la preocupación de los grupos de derechos civiles, que afirman que la elaboración de perfiles raciales es habitual en el país y señalan que las autoridades ya han utilizado la IA para identificar y detener a manifestantes antigubernamentales.


"Los hallazgos subrayan el feo racismo que se ha incorporado a estos sistemas", dijo Edin Omanovic, director de defensa de Privacy International, una organización benéfica de derechos con sede en Londres.


"Lejos de ser herramientas de seguridad benignas de las que se puede abusar, estas herramientas están profundamente arraigadas en algunas de las ideas más destructivas de la humanidad y hechas a propósito para la discriminación".


El Ministerio del Interior ruso y NtechLab no respondieron a las solicitudes de comentarios.


Las otras tres empresas expresaron su escepticismo sobre la capacidad actual de su tecnología para permitir abusos, pero dijeron que son conscientes de las preocupaciones éticas relacionadas con su uso.


Vadim Konushin, director general de Tevian, también conocida como Video Analysis Technologies, negó que los usos actuales de su herramienta por parte de la policía puedan afianzar la discriminación, y VisionLabs dijo que su software de análisis étnico se desarrolló únicamente con fines de investigación interna.



FOTO DE ARCHIVO: Un cliente utiliza el nuevo software de reconocimiento facial en el nuevo iPhone X dentro de la tienda de Apple en Regents Street en Londres, Gran Bretaña, 3 de noviembre de 2017. REUTERS/Peter Nicholls

ANÁLISIS DE LA ETNIA


La detección de la raza forma parte de una gama cada vez más amplia de analíticas ofrecidas por las empresas de reconocimiento facial que permiten a los clientes detectar rasgos físicos como el color del pelo y las expresiones faciales, y deducir información como la edad, el género y las emociones de una persona.


El software desarrollado por AxxonSoft, Tevian, con sede en Moscú, y VisionLabs, una empresa fundada en Rusia con sede en los Países Bajos, clasifican a las personas que pasan por delante de sus cámaras en aproximadamente los mismos grupos: Asiáticos, negros, blancos e indios.

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje