Por qué el presidente Biden debería prohibir la informática afectiva en las fuerzas del orden federales

https://www.brookings.edu/blog/techtank/2021/08/04/why-president-biden-should-ban-affective-computing-in-federal-law-enforcement/

La informática afectiva es un campo interdisciplinar que utiliza algoritmos para analizar cuerpos, rostros y voces con el fin de inferir las emociones y el estado de ánimo de los seres humanos. Aunque su uso no está muy extendido, las fuerzas de seguridad y las empresas están experimentando con el uso de la computación afectiva para extraer información sobre la personalidad, detectar el engaño e identificar el comportamiento delictivo. Sin embargo, no hay pruebas suficientes de que estas tecnologías funcionen con la suficiente fiabilidad como para utilizarlas en los elevados intereses de la aplicación de la ley. Y lo que es peor, amenazan los principios fundamentales de la libertad civil en una sociedad pluralista al suponer que los movimientos faciales, las reacciones físicas y el tono de voz pueden ser pruebas de criminalidad. El gobierno de Biden debería rechazar pública e inequívocamente esta perspectiva prohibiendo el uso de la computación afectiva en la aplicación de la ley federal.



Alex Engler

Rubenstein Fellow - Governance Studies

@AlexCEngler

La computación afectiva incluye un amplio conjunto de tecnologías que utilizan datos y algoritmos para reconocer e influir en las emociones humanas. Hay muchas preguntas que siguen sin respuesta, pero hay posibles contribuciones valiosas de la computación afectiva que justifican una mayor investigación. Por ejemplo, las grabaciones de audio podrían ayudar a identificar a los veteranos que pueden estar en riesgo de suicidio. Los sistemas de control de conductores que utilizan la computación afectiva podrían advertir a los conductores agotados y reducir las muertes en el tráfico. La aplicación Woebot ha llamado la atención por ofrecer una terapia automatizada mediante computación afectiva, aunque se desconoce la eficacia de este enfoque. Puede haber un debate honesto sobre la eficacia de estas aplicaciones, y sobre hasta qué punto se han precipitado en su uso comercial antes que la ciencia. Sin embargo, las tareas que interesan a las fuerzas del orden -como la detección de mentiras y de comportamientos delictivos- están claramente fuera de la capacidad de la computación afectiva.


Los datos disponibles sugieren que la computación afectiva no es lo suficientemente eficaz como para ser utilizada en la aplicación de la ley. En una evaluación realizada por la Agencia de Servicios Fronterizos de Canadá, un sistema experimental de entrevistas automatizadas llamado AVATAR tuvo un rendimiento pésimo como detector de mentiras. A pesar de realizar más de un millón de mediciones en cada entrevista -incluyendo el seguimiento de los ojos, los movimientos faciales y los rasgos vocales-, AVATAR fue incapaz de identificar el engaño de forma fiable. Esta evaluación incluso supuso una desventaja absurda para el sistema informático de afectación al utilizar los mismos datos tanto para el desarrollo como para la evaluación del modelo, lo que suele conducir a resultados demasiado optimistas. Los psicólogos se apresuran a señalar que no hay ninguna base científica que indique que el lenguaje corporal, las expresiones faciales y el tono vocal sean siquiera indicativos de engaño. Las exploraciones periodísticas de un software comercial de entrevistas similar descubrieron que se confundían con los entrevistados que llevaban gafas o con la adición de estanterías en el fondo. Otro sistema comercial no reconocía que el entrevistado no hablaba inglés cuando intentaba calificar su competencia en este idioma. Una revisión más amplia de la literatura científica sugiere que inferir la emoción a partir de las expresiones faciales es poco fiable.


A pesar de lo mucho que está en juego y de la falta de pruebas de eficacia, hay motivos para preocuparse de que las fuerzas del orden apliquen la informática afectiva. La página web 

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Es hora de que la IA se explique

Gemelos digitales, cerebros virtuales y los peligros del lenguaje

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles