Los algorirmos que iban a arreglar el problema de las fianza no funciona, y no deberían usarse en la justicia

El Instituto Pretrial Justice ha estado urgiendo a la adopción de este tipo de algoritmos. A principios de mes a cambiado su discurso a defender exactamente lo contrario ya que estos algoritmos perpetúan las desigualdades raciales. PJI se muestra contrario al uso de evaluación de riesgos en justicia criminal y otras áreas. "Esos problemas no se resuelven con ajustes técnicos.

El artículo cita otros algoritmos que también producen esas discriminaciones.

Sugiere un conjunto de reglas claras y conocidas por los acusados para que las apliquen los jueces. Un gran avance en la práctica judicial.


https://www.wired.com/story/algorithms-supposed-fix-bail-system-they-havent/

por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social