Los algorirmos que iban a arreglar el problema de las fianza no funciona, y no deberían usarse en la justicia

El Instituto Pretrial Justice ha estado urgiendo a la adopción de este tipo de algoritmos. A principios de mes a cambiado su discurso a defender exactamente lo contrario ya que estos algoritmos perpetúan las desigualdades raciales. PJI se muestra contrario al uso de evaluación de riesgos en justicia criminal y otras áreas. "Esos problemas no se resuelven con ajustes técnicos.

El artículo cita otros algoritmos que también producen esas discriminaciones.

Sugiere un conjunto de reglas claras y conocidas por los acusados para que las apliquen los jueces. Un gran avance en la práctica judicial.


https://www.wired.com/story/algorithms-supposed-fix-bail-system-they-havent/

por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Comentarios

Popular

El estado de la IA en 10 gráficos

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles