¿por qué los sistemas IA están sesgados?

Por supuesto, el sesgo existía antes del advenimiento de los sistemas de inteligencia artificial. Se sabe que los encargados de tomar decisiones humanas, desde las fuerzas del orden hasta las agencias de empleo, actúan sobre prejuicios internos. Una gracia salvadora es que hay una variación en los prejuicios humanos individuales, que trabaja para reducir su macro daño; no todos los humanos tienen la misma dificultad para distinguir entre caras no blancas, por ejemplo.

Sin embargo, el sesgo internalizado en un sistema de IA ampliamente implementado puede ser insidioso, precisamente porque un solo conjunto de sesgos se institucionaliza con poca variación.

La situación se ve agravada por nuestro conocido sesgo de automatización, que nos hace inconscientemente dar mayor peso a las decisiones de la máquina.

Controlar la amplificación inadvertida de los prejuicios sociales se ha convertido en una de las tareas más urgentes en la gestión de los riesgos de la tecnología de inteligencia artificial basada en datos.

Entonces, ¿por qué los sistemas de IA exhiben prejuicios racistas o sexistas? ¿Están las personas en laboratorios comerciales de IA escribiendo deliberadamente algoritmos sesgados o sistemas de capacitación sobre datos sesgados deliberadamente? Resulta que el comportamiento ofensivo se aprende con mayor frecuencia de lo que se diseñó, y la mayoría de estos sistemas han sido entrenados en datos públicos fácilmente disponibles, a menudo obtenidos de la web.

Un catalizador crítico para los éxitos recientes de la IA han sido las huellas digitales capturadas automáticamente de nuestras vidas y las interacciones cotidianas. Esto permitió que los sistemas de reconocimiento de imágenes se formaran en tesoros de imágenes (a menudo con etiquetas) que cargamos colectivamente en la web, y que los sistemas de lenguaje natural se formaran en el enorme cuerpo de lenguaje capturado en la web, desde Reddit hasta Wikipedia, a través de nuestras interacciones diarias.

En otras palabras, aunque ya no es socialmente aceptable admitir puntos de vista racistas o sexistas, tales puntos de vista, y sus consecuencias, a menudo todavía están implícitos en nuestro comportamiento colectivo y capturados en nuestras huellas digitales. Los sistemas modernos de inteligencia artificial basados ​​en datos pueden aprender estos sesgos sin darse cuenta, incluso si no lo pretendiéramos.

Los sistemas de IA entrenados en estos datos sesgados no solo se utilizan en la toma de decisiones predictivas (vigilancia, entrevistas de trabajo, etc.), sino también para generar o finalizar datos especificados de manera incompleta (por ejemplo, para mejorar una imagen de baja resolución al muestrearla). Esta fase de generación puede ser en sí misma un vehículo para una mayor propagación de sesgos.


Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje