Hacer visible lo invisible: lo que el compromiso público descubre sobre los privilegios y el poder en los sistemas de datos

Los eventos recientes en los Estados Unidos tienen un paralelismo sorprendente con un momento de definición social en el Reino Unido: después de una extensa investigación, una campaña de los padres de Stephen Lawrence y una amplia cobertura pública y mediática, el informe de Macpherson concluyó que la Policía Metropolitana era institucionalmente racista. Este término se origina en el trabajo de Carmichael y Hamilton (1967), quienes sostienen que el racismo individual es a menudo visible debido a su naturaleza abierta, pero el racismo institucional es menos evidente porque se origina en prácticas históricas, se perpetúa a través de prácticas de larga data en la sociedad y está sujeto a menos desafío, escrutinio y condena pública como consecuencia.
En nuestro trabajo para garantizar que los datos y la IA funcionen para las personas y la sociedad, es crucial abordar el racismo institucional, la desigualdad estructural y la injusticia. En nuestro prospecto Repensar datos, afirmamos que los datos no son, y nunca han sido neutrales: la forma en que se recopilan, interpretan y utilizan los datos refleja las normas sociales aceptadas.

Creo que es excesiva la defensa de las personas discapacitadas frente a la tecnología, por ejemplo que los asistentes virtuales como Siri o Alexa no entiendan a las personas con dificultad de habla. Los ciegos no pueden conducir, y mejor que no lo hagan, y no es una discriminación tecnológica. Dejando aparte si es ético o no que una máquina estime el sexo del alguien, mosquearse porque no detecta el género es excesivo, ya que el género es un sentimiento subjetivo que las máquinas no pueden extraer. El sexo tiene rasgos físicos identificativos, generalmente poco equívocos, el género es una autoconciencia psicológica.


Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje