Los algorirmos que iban a arreglar el problema de las fianza no funciona, y no deberían usarse en la justicia
El Instituto Pretrial Justice ha estado urgiendo a la adopción de este tipo de algoritmos. A principios de mes a cambiado su discurso a defender exactamente lo contrario ya que estos algoritmos perpetúan las desigualdades raciales. PJI se muestra contrario al uso de evaluación de riesgos en justicia criminal y otras áreas. "Esos problemas no se resuelven con ajustes técnicos.
El artículo cita otros algoritmos que también producen esas discriminaciones.
Sugiere un conjunto de reglas claras y conocidas por los acusados para que las apliquen los jueces. Un gran avance en la práctica judicial.
https://www.wired.com/story/algorithms-supposed-fix-bail-system-they-havent/
por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)
El artículo cita otros algoritmos que también producen esas discriminaciones.
Sugiere un conjunto de reglas claras y conocidas por los acusados para que las apliquen los jueces. Un gran avance en la práctica judicial.
https://www.wired.com/story/algorithms-supposed-fix-bail-system-they-havent/
por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)
Comentarios
Publicar un comentario