Es hora de regular la IA que interpreta las emociones humanas

https://www.nature.com/articles/d41586-021-00868-5?utm_source=twt_nnc&utm_medium=social&utm_campaign=naturenews

Durante la pandemia, las empresas de tecnología han estado lanzando su software de reconocimiento de emociones para monitorear a los trabajadores e incluso a los niños de forma remota. Tomemos, por ejemplo, un sistema llamado 4 arbolitos. Desarrollado en Hong Kong, el programa pretende evaluar las emociones de los niños mientras hacen el trabajo en clase. Traza los rasgos faciales para asignar el estado emocional de cada alumno en una categoría como felicidad, tristeza, ira, disgusto, sorpresa y miedo. También mide la "motivación" y pronostica calificaciones. Se han comercializado herramientas similares para proporcionar vigilancia a los trabajadores remotos. Según una estimación, la industria del reconocimiento de emociones crecerá a 37.000 millones de dólares en 2026.


Existe un profundo desacuerdo científico sobre si la IA puede detectar emociones. Una revisión de 2019 no encontró evidencia confiable al respecto. “Las empresas de tecnología pueden estar haciendo una pregunta fundamentalmente incorrecta”, concluyó el estudio (L. F. Barrett et al. Psychol. Sci. Public Interest 20, 1–68; 2019).


Y existe una creciente preocupación científica por el uso y mal uso de estas tecnologías. El año pasado, Rosalind Picard, cofundadora de una empresa de inteligencia artificial (IA) llamada Affectiva en Boston y dirige el Grupo de Investigación de Computación Afectiva en el Instituto de Tecnología de Massachusetts en Cambridge, dijo que apoya la regulación. Los académicos han pedido una auditoría obligatoria y rigurosa de todas las tecnologías de inteligencia artificial utilizadas en la contratación, junto con la divulgación pública de los hallazgos. En marzo, un panel de ciudadanos convocado por el Instituto Ada Lovelace en Londres dijo que un organismo legal independiente debería supervisar el desarrollo y la implementación de tecnologías biométricas (consulte go.nature.com/3cejmtk). Tal supervisión es esencial para defenderse de los sistemas impulsados ​​por lo que yo llamo el impulso frenológico: extraer supuestos erróneos sobre los estados internos y las capacidades de las apariencias externas, con el objetivo de extraer más sobre una persona de lo que eligen revelar.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social