Más que sentimientos

 El sesgo es endémico en la aplicación de la ley de EE. UU. La computación afectiva puede exacerbarlo. Por ejemplo, como ha descubierto la investigadora Lauren Rhue, "las expresiones faciales de los hombres negros se puntúan con las emociones asociadas con comportamientos amenazantes con más frecuencia que los hombres blancos, incluso cuando están sonriendo". También es probable que haya problemas de muestreo. Si se desarrolla una base de datos de agresión a partir de la observación de un subconjunto particular de la población, la IA resultante puede ser mucho mejor para encontrar “comportamiento sospechoso” en ese subconjunto que en otros. Aquellos que estuvieron más expuestos a los sistemas de vigilancia en el pasado pueden ser mucho más propensos a sufrir juicios computacionales de su comportamiento como "amenazantes" o algo peor. Los Robocops del futuro son "aprendizaje automático" a partir de datos distorsionados por un pasado plagado de discriminación.

https://reallifemag.com/more-than-a-feeling/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social