¿Cuando las predicciones se convienten en políticas?

La literatura está repleta de soluciones ingenuas para hacer que el aprendizaje automático sea compatible con la sociedad. Pero generalmente se pierden el problema clave. Todo el proceso de arrojar ingenuamente modelos predictivos a problemas sociales complejos es en sí mismo el problema. A menudo, cuando aplicamos el aprendizaje automático, no solo estamos abordando un problema de predicción. Estamos implementando una política cuyas decisiones forman un sistema de incentivos, potencialmente manipulando el comportamiento de quienes nos rodean.

"A menudo, cuando aplicamos el aprendizaje automático, no solo estamos abordando un problema de predicción. Estamos implementando una política cuyas decisiones forman un sistema de incentivos", lo que reformula el problema.


Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social