Vigilancia Los fantasmas de la supremacía blanca en la reforma de la IA

https://medium.com/a-new-ai-lexicon/a-new-ai-lexicon-surveillance-8a4231ef8359

La vigilancia y la recopilación de datos llevan mucho tiempo siendo impulsadas por los colonizadores que se reúnen para decidir cómo se debe controlar a los negros y morenos. Hoy en día, la vigilancia policial es uno de los métodos más violentos de control racial en Estados Unidos, y los esfuerzos por mejorar, perfeccionar y calibrar la vigilancia policial a través de la reforma policial continúan la tradición de experimentación de la supremacía blanca. Este ensayo explora cómo los conceptos reformistas y el lenguaje como "supervisión", "responsabilidad" y "transparencia" han proliferado junto a las tecnologías de vigilancia perjudiciales, contribuyendo a normalizarlas y ampliarlas. Estos conceptos reformistas suelen ser promovidos por organizaciones sin ánimo de lucro financiadas por la industria policial, y se instituyen a través de organismos de supervisión policial, requisitos de transparencia, criterios reguladores y procesos de auditoría. Llamamos a estos conceptos, instituciones y procesos reformistas burocracia de la vigilancia.

Las instituciones reformistas son el lugar en el que la policía y sus críticos de la corriente dominante buscan un terreno común. El reformismo es especialmente peligroso cuando se aplica a prácticas como la actuación policial "basada en datos", ya que refuerza la capacidad del Estado para reivindicar la objetividad de su violencia. Durante una década, la Coalición Stop LAPD Spying ha trabajado para poner fin a las prácticas policiales basadas en datos en Los Ángeles, especialmente los sistemas algorítmicos que extraen datos de vigilancia masiva para seleccionar a personas y lugares con el fin de aumentar la vigilancia. Nuestro trabajo contra estos programas se ha enfrentado no sólo a las agencias policiales que manejan sistemas de datos mortales, sino también a las instituciones reformistas con las que la policía trabaja para sanear su violencia.

Las tecnologías policiales actuales se basan en proyectos históricos de colonización y pacificación europea, así como en métodos anteriores para mantener la esclavitud de los negros y los indígenas. En Estados Unidos, la evolución de la vigilancia policial se remonta a las leyes de linternas, el marcado de la piel y las notificaciones de esclavos fugitivos, como sabemos por el crucial libro de Simone Browne Dark Matters. Por ello, los esfuerzos de la Coalición Stop LAPD Spying para hacer frente a los daños amenazados por la IA no se centran en la privacidad y la equidad -derechos que, para empezar, nunca se concedieron a muchas de nuestras comunidades-, sino que se basan en el avance del anticolonialismo y la liberación negra.

Vemos a las agencias policiales como el Departamento de Policía de Los Ángeles ("LAPD") como la vanguardia de la supremacía blanca, que gasta sus miles de millones anuales para ser pionera en nuevas formas de señalar, controlar y dominar a las comunidades negras y marrones. La burocracia de la vigilancia y la reforma han sido cruciales en este proceso. Estos enfoques sugieren que hay una forma correcta de hacer vigilancia, siempre y cuando el daño sea supervisado y estandarizado. Desde esta perspectiva, las innovaciones como los algoritmos policiales se plantean como algo que siempre está en proceso, que requiere más experimentación, refinamiento y supervisión. Por ejemplo, el jefe del Departamento de Policía de Los Ángeles, Michel Moore, ha desviado las críticas a los programas policiales basados en datos afirmando que forman parte de una evolución continua de la labor policial, y citando la necesidad de que el Departamento de Policía de Los Ángeles "experimente" y "pruebe estrategias emergentes"[1].

En lugar de empoderar a las comunidades que son vigiladas, la burocracia de la vigilancia promueve la "experiencia" de tecnólogos, abogados, académicos y otros dispuestos a colaborar con la policía. Estos profesionales con credenciales producen las reformas que el estado utiliza para transformarse y hacer que las tecnologías de vigilancia parezcan necesarias e incluso progresistas. En la misma línea, el Estado recurre a tecnólogos, investigadores, científicos de datos y programadores informáticos para dotar de un barniz científico a las antiguas prácticas de elaboración de perfiles raciales y patrullas racistas. Incluso hemos observado a investigadores y científicos que trabajan para calibrar el número exacto de víctimas de las tecnologías policiales, como si alguna vez pudiera haber un nivel aceptable de daño racial por parte de la policía.

A continuación destacamos ejemplos de colaboración del sector académico y privado con la policía para cuestionar por qué hay tan poco debate en el espacio crítico de la IA sobre el evidente problema ético de que las empresas que se benefician de las tecnologías policiales también financien las críticas académicas de estas mismas tecnologías. El problema comienza con la economía política de la IA, así como con la ética y las ideologías que impulsan la reforma. Como ha instado J. Khadijah Abdurahman, debemos enfrentarnos a "la imparcialidad, la rendición de cuentas, la transparencia y los marcos éticos más amplios que han permitido a los oportunistas construir su marca, ocupando el espacio necesario para abordar las cuestiones fundamentales de la violencia hegemónica de las grandes tecnologías".

Este proceso de facilitar la experimentación de la vigilancia a través de la reforma burocrática lleva años desarrollándose con la policía algorítmica en Los Ángeles. El año pasado, una campaña de organización de la comunidad obligó a la policía de Los Ángeles a poner fin a su uso del software de "vigilancia predictiva" vendido por PredPol, una empresa con ánimo de lucro fundada por profesores de la UCLA. Poco después, un grupo de más de 1.400 matemáticos académicos firmaron una carta en la que criticaban las "consecuencias racistas" de PredPol. El mismo mes en que la policía de Los Ángeles dejó de utilizar PredPol, anunció un marco de vigilancia titulado "Data-

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social