Las cuestiones éticas que acechan a la investigación sobre reconocimiento facial

 En septiembre de 2019, cuatro investigadores escribieron a la editorial Wiley para "pedirle respetuosamente" que retirara de inmediato un artículo científico. El estudio, publicado en 2018, había entrenado algoritmos para distinguir los rostros de los uigures, un grupo étnico minoritario predominantemente musulmán en China, de los de etnia coreana y tibetana1.

China ya había sido condenada internacionalmente por su intensa vigilancia y detenciones masivas de uigures en campamentos en la provincia noroccidental de Xinjiang, que según el gobierno son centros de reeducación destinados a sofocar un movimiento terrorista. Según informes de los medios de comunicación, las autoridades de Xinjiang han utilizado cámaras de vigilancia equipadas con software adaptado a los rostros uigures.

https://www.nature.com/articles/d41586-020-03187-3

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje