El engaño de los datos: proteger los datos individuales no es suficiente cuando el daño es colectivo

El 17 de marzo de 2018, las preguntas sobre la privacidad de los datos explotaron con el escándalo de la consultora Cambridge Analytica, previamente desconocida. Los legisladores todavía están lidiando con la actualización de las leyes para contrarrestar los daños del big data y la inteligencia artificial.

En la primavera de 2020, la pandemia de Covid-19 trajo preguntas sobre suficientes protecciones legales al debate público, con advertencias urgentes sobre las implicaciones de privacidad de las aplicaciones de rastreo de contactos. Pero las consecuencias de la vigilancia de las secuelas de la pandemia son mucho mayores que cualquier aplicación: el transporte, la educación, los sistemas de salud y las oficinas se están convirtiendo en vastas redes de vigilancia. Si solo consideramos compensaciones individuales entre sacrificios de privacidad y supuestos beneficios para la salud, perderemos el punto. La naturaleza colectiva de Big Data significa que las personas se ven más afectadas por los datos de otras personas que por los datos sobre ellos. Al igual que el cambio climático, la amenaza es social y personal.

En la era de Big Data y la inteligencia artificial, las personas pueden sufrir debido a cómo la suma de los datos individuales se analiza y clasifica en grupos por algoritmos. Como resultado, aparecen nuevas formas de daños colectivos basados ​​en datos: anuncios de vivienda, empleo y crédito en línea que discriminan por motivos de raza y género, mujeres descalificadas de los trabajos por motivos de género y actores extranjeros que se dirigen a grupos de la derecha moderada a la extrema derecha Nuestro debate público, los gobiernos y las leyes están mal equipados para hacer frente a estos daños colectivos, en lugar de individuales.

Las preocupaciones de privacidad que rodean a COVID-19 trajeron a la superficie una serie de desajustes entre la ley de privacidad individual y el valor del procesamiento de datos colectivos.
La pandemia acelera el riesgo de desigualdad y nuevos daños dramáticamente a medida que
La vigilancia y la recopilación de datos se aceleran para poner fin a la crisis de salud.
La mayoría de los que sufren ya serán marginados y vulnerables en nuestras sociedades.
Similar a la naturaleza colectiva de la amenaza del cambio climático, nuestros gobiernos y
Los responsables políticos deben cambiar la forma en que piensan acerca de la respuesta regulatoria. Necesitan considerar el impacto colectivo e individual de los datos.


Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje