Riesgos de Discriminación por el Uso de Algoritmos

Estudio detallado sobre casos de discriminación en diferentes ámbitos y la necesidad de detectarlos y los riesgos que tiene. 

Algoritmos: el estudio se centra en los algoritmos que se utilizan para el procesamiento de datos y la implementación semi o totalmente automatizada de reglas de toma de decisiones para diferenciar entre individuos. Tal Las diferenciaciones se relacionan con productos, servicios, posiciones o pagos económicos, así como con decisiones estatales. y acciones que afecten las libertades individuales o la distribución de servicios. 

Discriminación: las diferenciaciones basadas en algoritmos se vuelven discriminatorias si conducen a Desventaja de personas con características legalmente protegidas, en particular edad, género, origen étnico, religión, orientación sexual o discapacidad. El estudio describe casos en los que el algoritmo y los datos las diferenciaciones se han clasificado legalmente como discriminación o se analizan y discuten como riesgos de discriminación. 

Riesgos sociales: la legitimidad de tales diferenciaciones a menudo se justifica sobre la base de la eficiencia en Superar los déficits de información. Sin embargo, también implican riesgos sociales como la injusticia por generalización, tratamiento de las personas como meros objetos, restricción del libre desarrollo de la personalidad, acumulación efectos y creciente desigualdad y riesgos para los objetivos sociales de igualdad o política social. Al desarrollar y utilizando algoritmos, muchos riesgos de discriminación resultan del uso de datos que describen antecedentes desiguales tratamiento.

Necesidades de consideraciones sociales: aunque se superan los riesgos de discriminación de base técnica los algoritmos y los datos es fundamental, la legitimidad de las diferentes formas de diferenciación algorítmica requiere consideraciones y decisiones sociales que tengan en cuenta los riesgos sociales antes mencionados, la beneficios de la diferenciación y, en particular, su distribución en la sociedad. Esto debería conducir a definiciones de diferenciaciones socialmente aceptables. Dado que en la mayoría de los casos tales diferenciaciones se basan en el procesamiento de cantidades completas de datos personales, los riesgos para el derecho a la autodeterminación informativa deben ser considerado también.

https://www.antidiskriminierungsstelle.de/SharedDocs/Downloads/EN/publikationen/Studie_en_Diskriminierungsrisiken_durch_Verwendung_von_Algorithmen.pdf;jsessionid=E49B199C8326CBF02E7F205F40DA69A9.1_cid351?__blob=publicationFile&v=2

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje