'No culpe a un algoritmo, culpe a las personas detrás de él'

 Los resultados del algoritmo de calificación de exámenes son preocupantes y profundamente perjudiciales para aquellos cuyas calificaciones se han degradado, la mayoría de los cuales provienen de entornos desfavorecidos.

Ninguna persona razonable y racional podría dejar de simpatizar completamente con la desesperación palpable y la injusticia que sienten los jóvenes, sus padres y maestros.

Entonces, ¿qué salió mal? La palabra "algoritmo" se ha convertido en el villano misterioso y sin rostro que llena el debate y la discusión sobre los resultados de GCSE y A-level de este año. Pero, ¿qué es y cómo podemos entender su papel en este fiasco?

Dejemos una cosa clara desde el principio. Los algoritmos no son peligrosos en sí mismos. Son las personas que tomaron las decisiones sobre qué algoritmos aplicar, qué datos usar y exactamente cómo combinar los datos y el algoritmo quienes son el problema, no el algoritmo en sí.

El uso particular de este algoritmo de calificación de exámenes no es ético e injusto. Tanto los datos como el algoritmo deberían haber sido probados mucho más a fondo para garantizar que fueran justos e imparciales.

https://www.tes.com/news/a-levels-gcse-results-algorithm-isnt-dangerous-people-behind-it-are

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social