Informe de tecnología de reconocimiento de emociones

https://www.article19.org/emotion-recognition-technology-report/

La tecnología de reconocimiento de emociones suele ser pseudocientífica y conlleva un enorme potencial de daño.


El último informe de ARTICLE 19, Emotional Entanglement, proporciona evidencia y análisis del floreciente mercado de la tecnología de reconocimiento de emociones en China y su impacto perjudicial en los derechos humanos.


El informe demuestra la necesidad de una defensa estratégica y bien informada contra el diseño, desarrollo, venta y uso de tecnologías de reconocimiento de emociones.


Sobre todo, hacemos hincapié en que el momento oportuno para tal promoción, antes de que estas tecnologías se generalicen, es crucial para la promoción y protección efectivas de los derechos de las personas, incluida su libertad de expresión y opinión.


El informe proporciona una base fáctica que los investigadores, las organizaciones de la sociedad civil, los periodistas y los encargados de formular políticas pueden aprovechar para investigar la experiencia de las personas con esta tecnología e ilustrar sus daños.


¿Qué es la tecnología de reconocimiento de emociones?

A diferencia del reconocimiento facial o las aplicaciones biométricas que se centran en identificar a las personas, la tecnología de reconocimiento de emociones pretende inferir el estado emocional interno de una persona.


La tecnología se está integrando en aspectos críticos de la vida cotidiana, como cuando las autoridades policiales la utilizan para etiquetar a las personas como "sospechosas"; dónde lo usan las escuelas para monitorear la atención de los estudiantes en clase y dónde las empresas privadas lo usan para determinar el acceso de las personas al crédito.


¿Por qué deberíamos preocuparnos por eso?

En primer lugar, por diseño, la tecnología de reconocimiento de emociones busca imponer control sobre las personas. Dados los fundamentos científicos desacreditados sobre los que se construye, el uso de esta tecnología intrusiva e inexacta fomenta el uso de la vigilancia masiva como un fin en sí mismo.


En segundo lugar, la tecnología se está desarrollando sin consultar a las personas y sin tener en cuenta el inmenso potencial de daño que conlleva. Como resultado, es probable que afecte de manera desproporcionada a las minorías y a quienes ya están privados de sus derechos.


Más importante aún, al analizar y clasificar a los seres humanos en categorías arbitrarias que tocan los aspectos más personales de su ser, la tecnología de reconocimiento de emociones podría restringir el acceso a servicios y oportunidades, privar a las personas de su derecho a la privacidad y amenazar la libertad de las personas para expresarse y formarse. opiniones.

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje