Vigilancia estatal algorítmica: desafiando la noción de agencia en derechos humanos
La vigilancia algorítmica va más allá de los métodos de vigilancia clásicos donde los objetivos para la vigilancia generalmente se identifican de manera bastante específica. Los algoritmos de aprendizaje automático y profundo tienen el potencial de clasificar a las personas en categorías según parámetros específicos y conducir a la creación de grupos que comparten algunas características comunes. Basado en parámetros alimentados por agencias de la ley o agencias de inteligencia o como resultado de cálculos algorítmicos autónomos, la vigilancia algorítmica crea grupos de personas, a menudo incluso aparentemente completamente ajenos entre sí, cuyos derechos deben protegerse. Estos grupos tienen intereses comunes contra la vigilancia estatal, pero no pueden disfrutar de protección colectiva como "grupos" en el marco actual de derechos humanos (Kosta 2017, p. 50). Además, y como es común en los casos de vigilancia estatal, es posible que las personas no sepan que en realidad se les ha señalado que coinciden con un perfil "sospechoso" particular o que en realidad se consideran como pertenecientes a un grupo específico, después de la aplicación de un algoritmo. La ley tradicional europea de derechos humanos requiere, como norma para ofrecer protección de los derechos humanos, que el solicitante sea un agente con características específicas: ser una entidad legal o natural identificada y una víctima.
Diferencia entre vigilacia reactiva y preventiva. La primera actúa sobre datos pasados. La segunda infiere y crea grupos de personas que aún no han cometido un crimen.
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).
Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.
Comentarios
Publicar un comentario