Sobre la privacidad y la equidad algorítmica del aprendizaje automático y la inteligencia artificial

 Cuando grandes cantidades de datos de usuario recopilados a escala industrial continúan generando preocupaciones constantes sobre la privacidad, la necesidad de abordar seriamente los problemas de privacidad y protección de datos con respecto al procesamiento de datos es más importante que nunca. Los datos se introducen cada vez más en modelos de aprendizaje automático (es decir, "inteligencia artificial" que facilita la toma de decisiones automática), lo que puede generar muchas preocupaciones, incluso si las decisiones tomadas por dichos modelos son justas para los usuarios. De hecho, la investigación no solo indica que los modelos de aprendizaje automático pueden filtrar los datos de usuario aprendidos, incluidos los datos personales. Las preocupaciones sobre los resultados sesgados y la equidad (cómo veo la "equidad" se discute a continuación) también son cada vez más evidentes y, sin duda, contribuyen a las crecientes preocupaciones sobre los posibles riesgos de discriminación.

https://blog.lukaszolejnik.com/on-privacy-and-algorithmic-fairness-of-machine-learning-and-artificial-intelligence/amp/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social