¿Cómo prohibir el Reconocimiento Facial si está cada vez más extendido?

"Cuando pensamos en todas estas formas aparentemente inocuas de capturar nuestras imágenes, debemos recordar que no tenemos las leyes para protegernos", dijo a Recode Mutale Nkonde, miembro del Centro Berkman Klein de la Facultad de Derecho de Harvard. "Y entonces esas imágenes podrían ser usadas en tu contra".

algunas aplicaciones de reconocimiento facial centradas en el consumidor van más allá de la verificación, lo que significa que no solo intentan identificar a sus propios usuarios sino también a otras personas. Un primer ejemplo de esto es el etiquetado de fotos basado en reconocimiento facial de Facebook, que escanea las fotos que los usuarios publican en la plataforma para sugerir a ciertos amigos que pueden etiquetar. Una tecnología similar también funciona en aplicaciones como Google Photos y Apple Photos, que pueden identificar y etiquetar automáticamente sujetos en una foto.

"Sus efectos, cuando está en manos del gobierno, pueden ser realmente graves", dijo Laperruque. "Puede ser realmente severo si no funciona, y tiene identificaciones falsas que de repente se convierten en una ventaja que se convierte en la base de un caso completo y podrían hacer que alguien sea detenido o arrestado".

Agregó: "Y puede ser realmente severo si funciona bien y si se está utilizando para catalogar listas de personas que están en protestas o en un mitin político".

La creciente ubicuidad de la tecnología de reconocimiento facial puede normalizar una forma de vigilancia. Como argumenta el profesor del Instituto de Tecnología de Rochester, Evan Selinger, "a medida que las personas se adaptan al uso rutinario de cualquier sistema de escaneo facial y se desvanece en segundo plano como otro aspecto irrelevante de la vida contemporánea mediada digitalmente, sus deseos y creencias pueden volverse a diseñar".

Y así, incluso si hay una prohibición de la aplicación de la ley que utiliza el reconocimiento facial y es efectiva hasta cierto punto, la tecnología todavía se está convirtiendo en parte de la vida cotidiana. Eventualmente tendremos que lidiar con sus consecuencias.


Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social