Reconocimiento

https://medium.com/a-new-ai-lexicon/a-new-ai-lexicon-recognition-f535df26069d

En los últimos cinco años, el reconocimiento facial se ha convertido en un campo de batalla para el futuro de la Inteligencia Artificial (IA). Esta controvertida tecnología encierra los temores del público sobre la vigilancia ineludible, el sesgo algorítmico y la IA distópica. Ciudades de todo Estados Unidos han prohibido el uso del reconocimiento facial por parte de organismos gubernamentales y destacadas empresas han anunciado moratorias en el desarrollo de esta tecnología.

Pero, ¿qué significa ser reconocido? Numerosos autores han esbozado las implicaciones sociales, políticas y éticas de la tecnología de reconocimiento facial.¹ ² ³ Estas importantes críticas ponen de relieve las consecuencias de las identificaciones falsas positivas, que ya han dado lugar a detenciones injustas de hombres negros,⁴ así como los efectos del reconocimiento facial en la privacidad, las libertades civiles y la libertad de reunión. En este ensayo, sin embargo, examino cómo la tecnología del reconocimiento facial está entrelazada con otros tipos de reconocimiento social y político, y destaco cómo los esfuerzos de los tecnólogos por "diversificar" y "debias" el reconocimiento facial pueden en realidad exacerbar los efectos discriminatorios que pretenden resolver. En el ámbito de la visión por ordenador, el problema del reconocimiento facial sesgado se ha interpretado como un llamamiento a la construcción de conjuntos de datos y modelos más inclusivos. Yo sostengo que, por el contrario, los investigadores deberían interrogarse críticamente sobre lo que no puede o no debe ser reconocido por la visión por ordenador.

El reconocimiento es uno de los problemas más antiguos de la visión por ordenador. Para los investigadores de este campo, el reconocimiento es una cuestión de detección y clasificación. O, como dice un libro de texto, "el problema del reconocimiento de objetos puede definirse como un problema de etiquetado basado en modelos de objetos conocidos"⁵.

Cuando el reconocimiento se aplica a las personas, se trata de utilizar los atributos visuales para determinar qué tipo de persona aparece en una imagen. Esta es la base del reconocimiento facial (FR), que intenta relacionar a una persona con una imagen de su rostro previamente capturada, y del análisis facial (FA), que pretende reconocer atributos como la raza,⁶ el sexo,⁷ la sexualidad,⁹ o las emociones¹⁰ a partir de una imagen de un rostro.

Los recientes avances en la investigación de la IA y el aprendizaje automático (ML) (por ejemplo, las redes neuronales convolucionales y el aprendizaje profundo) han producido enormes ganancias en el rendimiento técnico de los modelos de reconocimiento facial y análisis facial.¹¹ Estas mejoras en el rendimiento han dado paso a una nueva era de reconocimiento facial y a su aplicación generalizada en dominios comerciales e institucionales. Sin embargo, las auditorías algorítmicas han revelado preocupantes disparidades de rendimiento cuando las tareas de reconocimiento y análisis facial se realizan en diferentes grupos demográficos,¹² ¹³ con menor precisión para las mujeres de piel más oscura en particular.

En respuesta a estas auditorías, la comunidad de aprendizaje automático Fairness, Accountability, and Transparency (FAT) se ha movilizado para construir conjuntos de datos más grandes y diversos para el entrenamiento y la evaluación de modelos,¹⁴ ¹⁵ ¹⁶ ¹⁷ algunos de los cuales incluyen rostros sintéticos. ¹⁸ ¹⁹ Estos esfuerzos incluyen el raspado de imágenes de Internet sin el conocimiento de las personas representadas en esas fotos, lo que lleva a algunos a señalar cómo estos proyectos violan las normas éticas sobre la privacidad y el consentimiento. Otros intentos de crear conjuntos de datos diversos han sido aún más preocupantes, por ejemplo, cuando los contratistas de Google solicitaron escaneos faciales a indigentes negros de Los Ángeles y Atlanta, que fueron compensados con tarjetas de regalo de 5 dólares de Starbucks.²² Estos esfuerzos nos recuerdan que la inclusión no siempre implica equidad. También plantean la cuestión de si los investigadores deberían recopilar más datos sobre personas que ya están muy vigiladas²³ con el fin de crear herramientas que puedan utilizarse para vigilarlas aún más.²³ Esto se relaciona con lo que Keeanga-Yamahtta Taylor ha denominado inclusión depredadora, que se refiere a cuando los llamados programas inclusivos crean más daños que beneficios para las personas marginadas, especialmente las comunidades negras.²⁵ ²⁶

Otros trabajos de la comunidad de la equidad, la responsabilidad y la transparencia han intentado resolver el problema del reconocimiento facial sesgado y los conjuntos de datos desequilibrados mediante el diseño de nuevas estrategias de muestreo de datos que sobremuestren a los grupos demográficos minoritarios o submuestren a la mayoría. ²⁷ ²⁸ Otro enfoque ha sido la creación de sistemas "conscientes de los prejuicios" que aprenden atributos como la raza y el sexo para mejorar el rendimiento del modelo.²⁹ ³⁰ ³¹ Estos sistemas comienzan extrayendo características demográficas de una imagen, que luego se utilizan como pistas explícitas para la tarea de reconocimiento facial. En pocas palabras: primero intentan detectar la raza y/o el sexo de una persona y luego utilizan esa información para que el reconocimiento facial funcione mejor. Sin embargo, ninguno de estos métodos cuestiona la premisa subyacente de que categorías sociales como la raza, el género y la sexualidad son atributos fijos que pueden reconocerse basándose únicamente en indicios visuales, o que por qué es necesario el reconocimiento automatizado de estos atributos en nuestra sociedad.

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Es hora de que la IA se explique

Gemelos digitales, cerebros virtuales y los peligros del lenguaje

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles