Otro papel mojado en las acaloradas afirmaciones sobre el reconocimiento de las emociones

https://www.biometricupdate.com/202109/another-wet-blanket-on-heated-claims-about-emotion-recognition

Las afirmaciones de que los algoritmos de reconocimiento facial pueden discernir las emociones son más difíciles de creer a raíz de una nueva investigación.


De hecho, ni siquiera la mente puede leer las emociones viendo las expresiones, a menos que conozca el contexto de una expresión, según un artículo escrito por un par de investigadores del Instituto Tecnológico de Massachusetts y la Universidad Católica de Lovaina.


Los científicos partieron en su proyecto de investigación sobre el reconocimiento de emociones de la suposición habitual en la industria de que un ceño fruncido sólo significa tristeza, por ejemplo. Al menos algunos estudios anteriores sobre el reconocimiento de emociones fotografiaron a modelos, no a actores profesionales, a los que se pidió simplemente que expresaran una emoción genérica con sus caras.


La IA se ha entrenado de esta manera desde la década de 1990, cuando un profesor del laboratorio de medios del MIT publicó un informe titulado Affective Computing. Los analistas del sector minorista también llaman a esta categoría análisis de sentimientos.


Busca, por ejemplo, cejas fruncidas, muecas y ojos muy abiertos.


Pero como atestigua cualquier pareja que haya sobrevivido muchos años, una ceja levantada no es sólo una ceja levantada. El espectador no puede inferir con precisión el significado de una expresión sin saber lo que el sujeto está pensando.


Eso es el contexto, y la mejor manera de saber con seguridad los pensamientos de otra persona es preguntando. Incluso entonces, la información que se ofrece está filtrada en el mejor de los casos.


Alguien que se ríe sorprendido tras ver un accidente de coche en una esquina puede ser, de alguna manera, responsable de haber provocado el percance. O esa persona podría estar dándose cuenta de que una coincidencia le había impedido estar en la calle en el momento equivocado.


Los contextos culturales también se mezclan con las respuestas emocionales físicas. Algunas culturas soportan el dolor con estoicismo, mientras que otras lanzan frenéticos lamentos que resultan contagiosos.


Es difícil, quizá imposible, codificar estas variables.


Y luego están los sesgos. Un artículo de 2019 en la Harvard Business Review encontró un estudio en el que los algoritmos asignaban más emociones negativas a algunas etnias que a otras.


La res

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje