Desde el reconocimiento facial hasta las tecnologías predictivas, la vigilancia de big data está plagada de minas terrestres técnicas, éticas y políticas.

A mediados de 2019, una organización sin fines de lucro de periodismo / tecnología de investigación llamada MuckRock y Open the Government (OTG), un grupo de defensa no partidista, comenzó a enviar solicitudes de libertad de información a las agencias de aplicación de la ley en todo Estados Unidos. El objetivo: ocultar los detalles sobre el uso de una aplicación que, según se rumorea, ofrece capacidades de reconocimiento facial sin precedentes a cualquier persona con un teléfono inteligente.

Co-fundado por Michael Morisy, un ex editor del Boston Globe, MuckRock se especializa en FOI y su sitio se ha convertido en un repositorio de acceso público de documentos gubernamentales obtenidos bajo las leyes de acceso a la información.

A medida que llegaban las respuestas, quedó claro que el equipo de MuckRock / OTG había hecho un descubrimiento sobre una empresa de tecnología llamada Clearview AI. Basado en documentos obtenidos de Atlanta, el investigador de OTG Freddy Martinez comenzó a presentar más solicitudes y descubrió que hasta 200 departamentos de policía en los EE. UU. Estaban usando la aplicación Clearview, que compara imágenes tomadas por cámaras de teléfonos inteligentes con una base de datos en expansión de 3 mil millones de código abierto. fotografías de rostros vinculados a diversas formas de información personal (por ejemplo, perfiles de Facebook). Fue, en efecto, un sistema de apuntar, hacer clic e identificar que transformó radicalmente el trabajo de los agentes de policía.

Los documentos pronto llegaron a un reportero del New York Times llamado Kashmir Hill, quien, en enero de 2020, publicó un artículo profundamente investigado sobre Clearview, una empresa pequeña y secreta con el respaldo de Peter Thiel, el multimillonario de Silicon Valley detrás de Paypal y Tecnologías Palantir. Entre las revelaciones de la historia, Hill reveló que los gigantes tecnológicos como Google y Apple sabían muy bien que una aplicación de este tipo podría desarrollarse utilizando algoritmos de inteligencia artificial que se alimentan del vasto almacén de imágenes faciales cargadas en plataformas de redes sociales y otras bases de datos de acceso público. Pero habían optado por no diseñar una herramienta de vigilancia tan disruptiva y de fácil difusión.

https://www.thestar.com/news/atkinsonseries/2021/01/12/from-facial-recognition-to-predictive-technologies-big-data-policing-is-rife-with-technical-ethical-and-political-landmines.html

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje