El gobierno holandés pagará una multa de un millón de euros por discriminación de datos racistas

https://netzpolitik.org/2022/childcare-benefits-scandal-dutch-government-to-pay-million-euro-fine-over-racist-data-discrimination/

Debido a las violaciones masivas del Reglamento General de Protección de Datos, el gobierno holandés tiene que pagar una multa de 2,75 millones de euros. En el marco del llamado "Toeslagenaffaire" (asunto de la prestación por hijo a cargo), la autoridad fiscal utilizó durante años información sobre la nacionalidad de las personas de forma discriminatoria e ilegal, según anunció en diciembre la autoridad nacional de protección de datos. Desde entonces, el Gobierno ha reconocido los errores.


La multa es la respuesta del regulador a un escándalo que sigue sacudiendo profundamente a los Países Bajos. En la década de 2010, la autoridad fiscal nacional Belastingdienst exigió falsamente la devolución de las prestaciones por cuidado de niños a decenas de miles de padres. Incluso pequeños errores formales en la cumplimentación de los formularios daban lugar a reclamaciones horrendas, y una supuesta nacionalidad incorrecta podía dar lugar a investigaciones de fraude estigmatizantes durante años. Muchas familias que dependían de la ayuda estatal se vieron injustamente abocadas a la ruina económica.


Se demostró que la actuación de la autoridad era racista. Como señala la autoridad de protección de datos en su comunicado de prensa, el Belastingdienst utilizaba los datos sobre la nacionalidad de los solicitantes de prestaciones por cuidado de niños como indicador para diversos fines. Por ejemplo, la información sobre si alguien tiene doble nacionalidad se utilizaba en la decisión de si se concedía la ayuda, aunque la autoridad fiscal debería haber eliminado estos datos sobre más de 1,4 millones de personas hace tiempo.


La información sobre la ciudadanía de los afectados también se ha utilizado como marcador de sospecha en la detección y lucha contra el fraude en el sistema de ayudas a la infancia. En un sistema automatizado de evaluación del riesgo de los solicitantes, la nacionalidad no holandesa se consideraba un factor de riesgo. Cualquiera que tuviera una nacionalidad que no fuera exclusivamente holandesa era considerado per se sospechoso para las autoridades fiscales.


Las víctimas tenían que luchar por el reconocimiento

"Los ciudadanos no tienen elección; están obligados a permitir que el gobierno procese sus datos personales", dijo el Comisario de Protección de Datos holandés, Aleid Wolfsen, en un comunicado. Por lo tanto, dijo, es imperativo que todo el mundo pueda tener absoluta confianza en que este procesamiento se está llevando a cabo de manera razonable. "Que el gobierno no guarda ni procesa datos innecesarios sobre las personas. Y que nunca haya ningún elemento de discriminación en el contacto de un individuo con el gobierno", añadió Wolfsen.


Una portavoz del Ministerio de Hacienda confirmó que su oficina aceptaba la multa y había puesto en marcha medidas para poner fin al tratamiento discriminatorio de datos. Entre otras cosas, dijo, el Belastingdienst había eliminado la base de datos que contenía información sobre la doble nacionalidad.


El gobierno neerlandés sólo admitió su error tras numerosos intentos de encubrimiento. Las víctimas del escándalo pasaron años luchando por el reconocimiento y el esclarecimiento del escándalo. Desde entonces se les ha prometido la devolución de los fondos y una indemnización de 30.000 euros a cada una.


Después de que una comisión de investigación parlamentaria constatara una discriminación sistemática y una injusticia masiva a finales de 2020, todo el gabinete del primer ministro Mark Rutte dimitió a principios de 2021. Sin embargo, el escándalo aparentemente no hizo ningún daño duradero al Primer Ministro de larga duración: En las elecciones de marzo, el partido liberal de derechas de Rutte, el VVD, volvió a ser la fuerza más fuerte. No fue hasta diciembre cuando acordó con los otros tres partidos del gobierno continuar su coalición bajo el liderazgo de Rutte.


Discriminación de datos: "Cuando sale mal, sale realmente mal"

Los casos de administraciones que utilizan datos sensibles para evaluar automáticamente a los ciudadanos y que cometen errores masivos han causado un gran revuelo en los últimos años. En Australia, un algoritmo envió de forma incorrecta demandas de reembolso a los beneficiarios de fondos gubernamentales, sumiendo a cientos de miles de personas en la crisis. En Europa, Austria lleva años discutiendo sobre un sistema que supuestamente predice las posibilidades de los solicitantes de empleo en el mercado laboral, perjudicando sistemáticamente a las mujeres y a los ancianos.

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social