Más que sentimientos

 El sesgo es endémico en la aplicación de la ley de EE. UU. La computación afectiva puede exacerbarlo. Por ejemplo, como ha descubierto la investigadora Lauren Rhue, "las expresiones faciales de los hombres negros se puntúan con las emociones asociadas con comportamientos amenazantes con más frecuencia que los hombres blancos, incluso cuando están sonriendo". También es probable que haya problemas de muestreo. Si se desarrolla una base de datos de agresión a partir de la observación de un subconjunto particular de la población, la IA resultante puede ser mucho mejor para encontrar “comportamiento sospechoso” en ese subconjunto que en otros. Aquellos que estuvieron más expuestos a los sistemas de vigilancia en el pasado pueden ser mucho más propensos a sufrir juicios computacionales de su comportamiento como "amenazantes" o algo peor. Los Robocops del futuro son "aprendizaje automático" a partir de datos distorsionados por un pasado plagado de discriminación.

https://reallifemag.com/more-than-a-feeling/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje