La UE toma medidas mínimas para regular los sistemas dañinos de IA, debe ir más allá para proteger los derechos fundamentales

https://www.accessnow.org/eu-minimal-steps-to-regulate-harmful-ai-systems/

Access Now ha estado abogando por una regulación basada en los derechos humanos para garantizar que tanto el sector público como el privado respeten y promuevan los derechos humanos en el contexto de la inteligencia artificial, incluida una convocatoria de líneas rojas para las aplicaciones de IA que son incompatibles con los derechos fundamentales. Desafortunadamente, la nueva propuesta no cumple con los requisitos mínimos necesarios para salvaguardar los derechos humanos en la UE.


“En su presentación del Reglamento de IA, la vicepresidenta ejecutiva Vestager dijo que 'queremos que la IA sea una fuerza para el progreso' en la UE. La introducción de una disposición para prohibir ciertos usos es un primer paso hacia eso. Desafortunadamente, esas prohibiciones son demasiado limitadas y este marco legal no hace nada para detener el desarrollo o despliegue de una serie de aplicaciones de IA que socavan drásticamente el progreso social y los derechos fundamentales ”, dijo Daniel Leufer, analista de políticas europeas de Access Now.


“Hace cinco años, el mundo observaba cómo la UE encabezaba el Reglamento general de protección de datos y creaba el estándar mundial en protección de datos. Con esta nueva legislación sobre inteligencia artificial, estamos nuevamente en un momento clave, donde la UE puede liderar el camino, si pone los derechos de las personas en el centro ", dijo Estelle Massé, líder mundial de protección de datos en Access Now. "Si algo hemos aprendido del GDPR, es que el capítulo de aplicación de esta futura regulación será muy importante para que esta legislación sea un éxito".


Positivos

Access Now acoge con satisfacción varias de las medidas incluidas en esta propuesta:


En consonancia con las solicitudes de líneas rojas, el artículo 5 del Reglamento describe una lista de aplicaciones de la IA que deben prohibirse porque "su uso se considera inaceptable por contravenir los valores de la Unión, por ejemplo, al violar los derechos fundamentales".

El artículo 60 introduce importantes medidas de transparencia mediante el establecimiento de una base de datos de la UE de acceso público sobre sistemas independientes de IA de alto riesgo.

Necesita mejorar

Varias medidas introducidas plantean serias dudas y será necesario fortalecerlas para garantizar la protección de los derechos fundamentales:


Si bien es un paso importante para el Artículo 5 reconocer la necesidad de prohibiciones en ciertas aplicaciones, el lenguaje actual es demasiado vago, contiene demasiadas lagunas y omite varias líneas rojas importantes delineadas por la sociedad civil. Muchas de las líneas rojas de la sociedad civil solo se han clasificado como de alto riesgo, y las obligaciones actuales sobre los sistemas de alto riesgo son insuficientes para proteger los derechos fundamentales.

La propuesta actual no prevé un mecanismo para la adición de más casos de uso a la lista de prohibiciones del artículo 5. Las disposiciones del artículo 7, para la adición de nuevas aplicaciones a la lista de usos de alto riesgo, deberían ampliarse para permitir para la adición de nuevas prohibiciones.

El tratamiento de los "sistemas de categorización biométrica" ​​es sumamente preocupante. La definición actual aplica el mismo trato a las aplicaciones banales de la IA que agrupan a las personas según el color de cabello según los datos biométricos, y a los peligrosos sistemas de IA pseudocientíficos que determinan nuestro "origen étnico u orientación sexual o política" a partir de datos biométricos. No hay más opción que prohibir este último grupo de sistemas.

De acuerdo con la recomendación conjunta de Access Now & AlgorithmWatch sobre registros públicos, la base de datos de la UE debería ampliarse para incluir todos los sistemas de IA utilizados en el sector público, independientemente del nivel de riesgo.

El mecanismo de ejecución propuesto, que incluye a la Junta de Inteligencia Artificial de la UE y el nombramiento de las autoridades nacionales de supervisión, carece de claridad. La creación de una nueva junta y el nombramiento de autoridades de supervisión con responsabilidades y competencias que pueden superponerse con la Junta Europea de Protección de Datos y las Autoridades de Protección de Datos existentes podría causar confusión y, en el peor de los casos, socavar la autoridad de la EDPB y las APD en asuntos que son fundamentales para sus competencias. Debe aclararse el papel de las APD y la EPDB.

La propuesta actual es un primer paso crucial en el proceso legislativo. Access Now confía en que el Parlamento y el Consejo puedan trabajar de forma constructiva para garantizar que los derechos fundamentales reciban la protección suficiente en virtud de esta legislación.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social