Los científicos crean juegos en línea para mostrar los riesgos del reconocimiento de emociones de la IA

https://www.theguardian.com/technology/2021/apr/04/online-games-ai-emotion-recognition-emojify?utm_source=dlvr.it&utm_medium=facebook&fbclid=IwAR19v0odbnZ7TVPDcNCFuOg_kXYrioK0YSToxNQAEkMRx1ulhSJbJEXNIJ0

Es una tecnología que ha sido mal vista por los especialistas en ética: ahora los investigadores esperan desenmascarar la realidad de los sistemas de reconocimiento de emociones en un esfuerzo por impulsar el debate público.


La tecnología diseñada para identificar las emociones humanas mediante algoritmos de aprendizaje automático es una industria enorme, y se afirma que podría resultar valiosa en innumerables situaciones, desde la seguridad vial hasta la investigación de mercado. Pero los críticos dicen que la tecnología no solo genera preocupaciones sobre la privacidad, sino que es inexacta y tiene prejuicios raciales.


Un equipo de investigadores ha creado un sitio web, emojify.info, donde el público puede probar sistemas de reconocimiento de emociones a través de sus propias cámaras de computadora. Un juego se centra en poner caras para engañar a la tecnología, mientras que otro explora cómo estos sistemas pueden tener dificultades para leer las expresiones faciales en contexto.


Su esperanza, dicen los investigadores, es crear conciencia sobre la tecnología y promover conversaciones sobre su uso.


"Es una forma de reconocimiento facial, pero va más allá porque, en lugar de solo identificar a las personas, pretende leer nuestras emociones, nuestros sentimientos internos en nuestros rostros", dijo la Dra. Alexa Hagerty, líder del proyecto e investigadora de la Universidad de Cambridge Leverhulme. Centro para el Futuro de la Inteligencia y Centro para el Estudio del Riesgo Existencial.


La tecnología de reconocimiento facial, que se utiliza a menudo para identificar a las personas, ha sido objeto de un intenso escrutinio en los últimos años. El año pasado, la Comisión de Igualdad y Derechos Humanos dijo que su uso para la detección masiva debería detenerse, diciendo que podría aumentar la discriminación policial y dañar la libertad de expresión.


Pero Hagerty dijo que muchas personas no eran conscientes de lo comunes que eran los sistemas de reconocimiento de emociones, y señaló que fueron empleados en situaciones que van desde la contratación de un trabajo hasta el trabajo de conocimiento del cliente, la seguridad del aeropuerto e incluso la educación para ver si los estudiantes están comprometidos o haciendo su tarea.


Dicha tecnología, dijo, se utiliza en todo el mundo, desde Europa hasta Estados Unidos y China. Taigusys, una empresa que se especializa en sistemas de reconocimiento de emociones y cuya oficina principal está en Shenzhen, dice que los ha utilizado en entornos que van desde residencias de ancianos hasta prisiones, mientras que, según informes de principios de este año, la ciudad india de Lucknow planea utilizar el tecnología para detectar la angustia en las mujeres como resultado del acoso, una medida que ha recibido críticas, incluso por parte de organizaciones de derechos digitales. 

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje