Los algorirmos que iban a arreglar el problema de las fianza no funciona, y no deberían usarse en la justicia

El Instituto Pretrial Justice ha estado urgiendo a la adopción de este tipo de algoritmos. A principios de mes a cambiado su discurso a defender exactamente lo contrario ya que estos algoritmos perpetúan las desigualdades raciales. PJI se muestra contrario al uso de evaluación de riesgos en justicia criminal y otras áreas. "Esos problemas no se resuelven con ajustes técnicos.

El artículo cita otros algoritmos que también producen esas discriminaciones.

Sugiere un conjunto de reglas claras y conocidas por los acusados para que las apliquen los jueces. Un gran avance en la práctica judicial.


https://www.wired.com/story/algorithms-supposed-fix-bail-system-they-havent/

por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Comentarios

Popular

El estado de la IA en 10 gráficos

Es hora de que la IA se explique

Publicación del primer informe de progreso del Comité Ad hoc de Inteligencia Artificial (CAHAI)