La UE debería regular la IA sobre la base de los derechos, no de los riesgos

https://www.accessnow.org/eu-regulation-ai-risk-based-approach/


En solo unos meses, la Comisión Europea está preparada para presentar un reglamento sobre inteligencia artificial (IA). A pesar de las numerosas declaraciones de la sociedad civil y otros actores sobre los peligros de aplicar un enfoque basado en el riesgo para regular la IA, la Comisión Europea parece decidida a ir en esta dirección. La Comisión ya dijo en su Libro Blanco de 2020 sobre Inteligencia Artificial que quería aplicar un enfoque basado en el riesgo.

Un enfoque basado en el riesgo implica determinar la escala o el alcance de los riesgos relacionados con una situación concreta y una amenaza reconocida. Este enfoque es útil en entornos técnicos donde las empresas tienen que evaluar sus propios riesgos operativos. Sin embargo, el enfoque de la UE haría que las empresas evaluaran sus riesgos operativos frente a los derechos fundamentales de las personas. Este es un concepto erróneo fundamental de lo que son los derechos humanos; no pueden equilibrarse con los intereses de las empresas. Las empresas también tendrían interés en minimizar los riesgos para desarrollar productos. Por lo tanto, un enfoque de la regulación basado en el riesgo no es adecuado para proteger los derechos humanos. Nuestros derechos no son negociables y deben ser respetados independientemente del nivel de riesgo asociado a factores externos.

Hemos escuchado a personas hacer numerosas referencias sobre cómo un enfoque basado en el riesgo tomaría el liderazgo del Reglamento General de Protección de Datos (GDPR). Esto es preocupante precisamente porque el GDPR no es fundamentalmente una ley basada en riesgos, y las partes que se ocupan de la evaluación de riesgos han demostrado ser muy problemáticas.

Como explicamos a continuación, la próxima propuesta legislativa sobre IA debería ser una ley basada en derechos, como el RGPD, ya que esta es la única forma de garantizar la protección de los derechos fundamentales. La Comisión Europea no debe comprometer nuestros derechos sustituyendo un mero ejercicio de mitigación de riesgos por parte de los mismos actores con intereses creados en el despliegue de esta tecnología.

Por qué el RGPD no es una ley basada en riesgos
A lo largo de las negociaciones del GDPR y desde su adopción en 2016, muchos en la industria han afirmado que la ley "consagra" o "establece" un enfoque basado en el riesgo para la protección de datos. Ese no es el caso.

El GDPR incluye referencias a riesgos y define los requisitos para realizar una evaluación de riesgos en escenarios específicos, como cuando hay una violación de datos. Sin embargo, el RGPD se basa en derechos y los hace operativos. Establece una serie de derechos que nos permiten controlar nuestra información y luego impone obligaciones y requisitos a las empresas y otras entidades que utilizan nuestros datos para proteger esos derechos. De hecho, durante las negociaciones del RGPD, el Grupo de Trabajo 29, que reúne a todas las autoridades de protección de datos de la UE, publicó una declaración sobre el enfoque basado en el riesgo para explicar que no puede reemplazar las obligaciones de la empresa para proteger nuestros derechos:

“… Al Grupo de Trabajo le preocupa que, tanto en relación con los debates sobre el nuevo marco jurídico de la UE para la protección de datos como más ampliamente, el enfoque basado en el riesgo se presente cada vez más y de forma errónea como una alternativa a los derechos y principios de protección de datos bien establecidos, más que como un enfoque escalable y proporcionado para el cumplimiento. El propósito de esta declaración es dejar las cosas claras ".

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social