Sonríe para la cámara: el lado oscuro de la tecnología de reconocimiento de emociones de China

https://www.theguardian.com/global-development/2021/mar/03/china-positive-energy-emotion-surveillance-recognition-tech

“La gente común aquí en China no está contenta con esta tecnología, pero no tienen otra opción. Si la policía dice que tiene que haber cámaras en una comunidad, la gente simplemente tendrá que vivir con eso. Siempre existe esa demanda y estamos aquí para satisfacerla ".


Eso dice Chen Wei de Taigusys, una empresa especializada en tecnología de reconocimiento de emociones, la última evolución en el mundo más amplio de los sistemas de vigilancia que juegan un papel en casi todos los aspectos de la sociedad china.


Las tecnologías de reconocimiento de emociones, en las que se rastrean las expresiones faciales de ira, tristeza, felicidad y aburrimiento, así como otros datos biométricos, supuestamente pueden inferir los sentimientos de una persona en función de rasgos como los movimientos de los músculos faciales, el tono vocal, los movimientos corporales y otras señales biométricas. Va más allá de las tecnologías de reconocimiento facial, que simplemente comparan rostros para determinar una coincidencia.


Pero similar al reconocimiento facial, implica la recopilación masiva de datos personales sensibles para rastrear, monitorear y perfilar a las personas y utiliza el aprendizaje automático para analizar expresiones y otras pistas.


La industria está en auge en China, donde desde al menos 2012, figuras como el presidente Xi Jinping han enfatizado la creación de "energía positiva" como parte de una campaña ideológica para alentar ciertos tipos de expresión y limitar otros.


Los críticos dicen que la tecnología se basa en una pseudociencia de los estereotipos, y un número cada vez mayor de investigadores, abogados y activistas de derechos creen que tiene serias implicaciones para los derechos humanos, la privacidad y la libertad de expresión. Con un pronóstico de la industria global de casi $ 36 mil millones para 2023, con un crecimiento de casi un 30% anual, los grupos de derechos dicen que se deben tomar medidas ahora.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social