NO SE PUEDE DETERMINAR LA EMOCIÓN A PARTIR DE LOS MOVIMIENTOS FACIALES DE ALGUIEN, Y TAMPOCO LA AI

https://news.northeastern.edu/2021/08/20/you-cant-determine-emotion-from-someones-facial-expression-and-neither-can-ai/

Si vieras a una persona con el ceño fruncido, la boca baja y los ojos entrecerrados, ¿adivinarías que está enfadada? ¿Y si descubrieras que se ha olvidado las gafas de leer y está descifrando el menú de un restaurante?


La interpretación de los movimientos faciales de una persona no puede hacerse en el vacío, sino que depende del contexto, como demuestra la neurocientífica del Northeastern Lisa Feldman Barrett en un nuevo e innovador estudio publicado el jueves en la revista científica Nature Communications.


Lisa Feldman Barrett es profesora distinguida de psicología en la Facultad de Ciencias de Northeastern. Foto por cortesía de Lisa Feldman Barrett.

Lisa Feldman Barrett es profesora distinguida de psicología en la Facultad de Ciencias de Northeastern. Fotografía por cortesía de Lisa Feldman Barrett.


Barrett, distinguida profesora universitaria de psicología en Northeastern, y sus colegas de otras instituciones de todo el mundo utilizaron fotografías de actores profesionales que representaban escenarios muy bien construidos para demostrar que las personas no sólo utilizan diferentes movimientos faciales para comunicar diferentes instancias de la misma categoría de emoción (alguien puede fruncir el ceño, (alguien puede fruncir el ceño, fruncir la nariz o incluso reírse cuando está representando la ira), sino que también emplean configuraciones faciales similares para comunicar una serie de casos de diferentes categorías de emociones (un ceño fruncido puede expresar a veces la concentración, por ejemplo), conclusiones que tienen serias implicaciones para la tecnología de reconocimiento de emociones que pretende "leer" las emociones en el rostro.


"La implicación de este estudio es que hay mucha más variabilidad en la forma en que las personas expresan diferentes instancias de una categoría de emoción determinada. Y una configuración facial puede expresar instancias de ira, felicidad u otras categorías de emociones, dependiendo del contexto", dice Barrett.


La gente puede abrir los ojos porque está enfadada o porque está sorprendida, y el cerebro humano depende del contexto para resolver este rompecabezas".


Los estudios científicos anteriores sobre las expresiones emocionales se basaban en personas normales o actores aficionados para representar un solo caso de cada categoría de emoción en un contexto pobre: "Tu primo acaba de morir y te sientes muy triste. ¿Qué expresión harías?".


Este tipo de representaciones inducen a las personas a recurrir a expresiones de emoción estereotipadas (fruncir el ceño en caso de tristeza), en lugar de expresiones que reflejen una vida emocional más rica, llena de matices y variaciones situadas, afirma Barrett.


Por eso, para su estudio, Barrett y sus coautores utilizaron fotografías de actores profesionales, personas "expertas en emociones" porque su propio sustento depende de "su representación auténtica de experiencias emocionales en el cine, la televisión y el teatro", de forma que transmitan información creíble, escriben los investigadores.



A los actores se les dio un escenario detallado que provocaba emociones y luego Howard Schatz (que también creó los escenarios) los fotografió para dos volúmenes publicados: In Character: Actors Acting y Caught in the Act: Actors Acting.


Un ejemplo de los libros de Schatz: "Es un tipo en moto que sale de un bar de moteros justo cuando un tipo en un Porsche retrocede hacia su reluciente Harley", según el documento de los investigadores.

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje