La inteligencia artificial está malinterpretando las emociones humanas

https://www.theatlantic.com/technology/archive/2021/04/artificial-intelligence-misreading-human-emotion/618696/

En un puesto remoto en las montañas montañosas de Papúa Nueva Guinea, llegó un joven psicólogo estadounidense llamado Paul Ekman con una colección de tarjetas didácticas y una nueva teoría. Era 1967, y Ekman había oído que la gente Fore de Okapa estaba tan aislada del resto del mundo que serían sus sujetos de prueba ideales.


Como los investigadores occidentales antes que él, Ekman había venido a Papúa Nueva Guinea para extraer datos de la comunidad indígena. Estaba reuniendo pruebas para respaldar una hipótesis controvertida: que todos los seres humanos exhiben una pequeña cantidad de emociones o afectos universales que son innatos e iguales en todo el mundo. Durante más de medio siglo, esta afirmación ha sido polémica, disputada entre psicólogos, antropólogos y tecnólogos. No obstante, se convirtió en una semilla para un mercado en crecimiento que tendrá un valor estimado de $ 56 mil millones para 2024. Esta es la historia de cómo el reconocimiento del afecto llegó a ser parte de la industria de la inteligencia artificial y los problemas que presenta.


Cuando Ekman llegó a los trópicos de Okapa, realizó experimentos para evaluar cómo Fore reconocía las emociones. Debido a que Fore tenía un contacto mínimo con los occidentales y los medios de comunicación, Ekman había teorizado que su reconocimiento y exhibición de expresiones centrales probaría que tales expresiones eran universales. Su método fue simple. Les mostraría tarjetas de memoria flash de expresiones faciales y vería si describían la emoción como él lo hizo. En palabras del propio Ekman, "Todo lo que estaba haciendo era mostrar imágenes divertidas". Pero Ekman no tenía formación en historia, lengua, cultura o política de Fore. Sus intentos de realizar sus experimentos con tarjetas de memoria flash utilizando traductores fracasaron; él y sus súbditos estaban exhaustos por el proceso, que describió como como sacar los dientes. Ekman se fue de Papúa Nueva Guinea, frustrado por su primer intento de investigación transcultural sobre la expresión emocional. Pero esto sería solo el comienzo.


La portada de la sobrecubierta del libro "Atlas of AI" de Kate Crawford

Este artículo está adaptado del libro reciente de Crawford.

Hoy en día, las herramientas de reconocimiento de afectos se pueden encontrar en los sistemas de seguridad nacional y en los aeropuertos, en la educación y la contratación de empresas emergentes, en software que pretende detectar enfermedades psiquiátricas y programas de vigilancia que pretenden predecir la violencia. La afirmación de que el estado interior de una persona puede evaluarse con precisión analizando el rostro de esa persona se basa en pruebas inestables. Una revisión sistemática de 2019 de la literatura científica sobre la inferencia de emociones a partir de movimientos faciales, dirigida por la psicóloga y neurocientífica Lisa Feldman Barrett, encontró que no hay evidencia confiable de que se pueda predecir con precisión el estado emocional de una persona de esta manera. “No es posible inferir con seguridad la felicidad de una sonrisa, la ira de un ceño fruncido o la tristeza de un ceño fruncido, como intenta hacer gran parte de la tecnología actual al aplicar lo que se cree erróneamente que son hechos científicos”, concluye el estudio. Entonces, ¿por qué la idea de que existe un pequeño conjunto de emociones universales, que se interpretan fácilmente a partir del rostro de una persona, se ha vuelto tan aceptada en el campo de la IA?


Comprender eso requiere rastrear la compleja historia y los incentivos detrás de cómo se desarrollaron estas ideas, mucho antes de que las herramientas de detección de emociones de IA se integraran en la infraestructura de la vida cotidiana.


La idea del reconocimiento de afecto automatizado es tan convincente como lucrativa. Las empresas de tecnología han capturado inmensos volúmenes de imágenes superficiales de expresiones humanas, incluidos miles de millones de selfies de Instagram, retratos de Pinterest, videos de TikTok y fotos de Flickr. Al igual que el reconocimiento facial, el reconocimiento de afectos se ha convertido en parte de la infraestructura central de muchas plataformas, desde las mayores empresas de tecnología hasta las pequeñas empresas emergentes.


Mientras que el reconocimiento facial intenta identificar a un individuo en particular, el reconocimiento afectivo tiene como objetivo detectar y clasificar las emociones analizando cualquier rostro. Estos sistemas ya influyen en cómo se comportan las personas y cómo operan las instituciones sociales, a pesar de la falta de evidencia científica sustancial de que funcionen. Los sistemas automatizados de detección de afectos ahora se implementan ampliamente, particularmente en la contratación. La empresa de contratación de IA HireVue, que puede incluir a Goldman Sachs, Intel y Unilever entre sus clientes, utiliza el aprendizaje automático para inferir la idoneidad de las personas para un trabajo. En 2014, la compañía lanzó su sistema de inteligencia artificial para extraer microexpresiones, tono de voz y otras variables de las entrevistas de trabajo en video, que utilizó para comparar a los solicitantes de empleo con los de mejor desempeño de una empresa. Después de considerables críticas de académicos y grupos de derechos civiles, abandonó el análisis facial en 2021, pero mantuvo el tono vocal como criterio de evaluación. En enero de 2016, Apple adquirió la empresa emergente Emotient, que afirmó haber producido un software capaz de detectar emociones a partir de imágenes de rostros. Quizás la más grande de estas nuevas empresas es Affectiva, una empresa con sede en Boston que surgió del trabajo académico realizado en el MIT.


Affectiva ha codificado una variedad de aplicaciones relacionadas con las emociones, principalmente utilizando técnicas de aprendizaje profundo. Estos enfoques incluyen la detección de dis

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje