Demandas de AlgorithmWatch para mejorar la Ley de IA

https://algorithmwatch.org/en/algorithmwatch-demands-for-improving-the-ai-act/

Nuestras principales exigencias

El contexto es importante. El enfoque actual de la Ley de designar ex ante los sistemas de IA a diferentes categorías de riesgo no tiene en cuenta que el nivel de riesgo también depende del contexto en el que se despliega un sistema y no puede determinarse completamente por adelantado. Por un lado, es necesario introducir mecanismos de actualización coherentes para todas las categorías de riesgo de la Ley de IA. Por otro lado, sólo podemos tener en cuenta el contexto de despliegue del sistema si sometemos a quienes los despliegan -los usuarios en la terminología de la Ley- a obligaciones más estrictas.


Evaluación del impacto sobre los derechos fundamentales. Antes de poner en marcha un sistema de alto riesgo, su usuario debe estar obligado a realizar una evaluación de impacto sobre los derechos fundamentales para comprobar si el despliegue de ese sistema se ajusta a las normas de derechos humanos. El despliegue de sistemas de IA por parte de las autoridades públicas debe ir siempre acompañado de una evaluación de impacto sobre los derechos fundamentales, independientemente del nivel de riesgo del sistema.


Registro público para los casos de uso de la IA de gran repercusión. La transparencia es el primer paso hacia la responsabilidad. La Ley de IA prevé una base de datos de la UE en la que todos los sistemas de IA de alto riesgo deben ser registrados por el proveedor. En nuestra opinión, se trata de un paso importante, pero no va lo suficientemente lejos. El despliegue del mismo sistema de IA en diferentes contextos puede tener impactos muy diferentes en nuestras vidas, por lo que es esencial que todos los casos de uso de alto riesgo se registren también en la base de datos. Además, las autoridades públicas toman decisiones con efectos cruciales en nuestras vidas, normalmente sin ningún proveedor de servicios alternativo al que podamos recurrir. Por lo tanto, debido a esta responsabilidad única que tienen, exigimos que todos los casos de uso de sistemas de IA por parte de las autoridades públicas -independientemente de su nivel de riesgo- se registren en la base de datos de la UE.


Para más detalles sobre la posición de AlgorithmWatch respecto a la base de datos de la UE, consulte las siguientes recomendaciones detalladas:


  Descargar como PDF

Una definición amplia de IA en la Ley de IA. El año pasado, la Presidencia eslovena del Consejo redujo considerablemente la definición de IA en la Ley, lo que limitaría drásticamente su alcance. Como informó AlgorithmWatch, con una definición tan estrecha, muchos sistemas que pueden tener un impacto significativo en la vida de las personas no entrarían necesariamente en la Ley. Sostenemos que los riesgos que conlleva un sistema no sólo dependen de la complejidad de la tecnología implicada, sino del contexto en el que se utiliza el sistema. Por tanto, es fundamental una definición amplia.


Hay que revisar las exenciones por "fines militares" y seguridad nacional. La Ley de IA excluye de su ámbito de aplicación los sistemas de IA desarrollados o utilizados exclusivamente con fines militares. Además, en el Consejo se han propuesto otras exenciones relativas a los sistemas de IA desarrollados o utilizados exclusivamente con fines de seguridad nacional. Exigimos que se defina claramente lo que suponen los fines militares y que se incluya sin ambigüedades el ámbito de la seguridad nacional en el ámbito de aplicación de la Ley.


Hay que tener en cuenta el impacto ecológico de los sistemas de IA. Los sistemas de IA pueden tener un impacto significativo en el medio ambiente debido a su consumo de recursos y emisiones. Basándonos en los resultados iniciales de nuestro proyecto SustAIn, pedimos que la Ley de IA incluya requisitos de transparencia medioambiental, es decir, que se obligue a revelar el impacto medioambiental de todos los sistemas de IA -que se deriva del diseño, la gestión de datos, la formación y las infraestructuras subyacentes de un sistema-, independientemente del nivel de riesgo.


Para más detalles sobre la posición de AlgorithmWatch sobre la Ley de IA y la sostenibilidad ecológica, consulte las siguientes recomendaciones detalladas:


  Descargar como PDF

Cerrar las lagunas de las prohibiciones. La Ley de IA prohibiría ciertos usos de los sistemas de IA que no son compatibles con los derechos fundamentales. Aunque lo apreciamos, exigimos que se cierren las lagunas para que las disposiciones del artículo 5 puedan proteger realmente a las personas de los sistemas que violan sus derechos. Además, habría que prohibir otros casos de uso.


Se espera que el Consejo y el Parlamento desarrollen sus respectivas posiciones sobre la Ley de IA a lo largo de este año. Junto con nuestros socios de la sociedad civil, AlgorithmWatch continuará sus esfuerzos para que la Ley se convierta en una poderosa herramienta para proteger nuestros derechos fundamentales.



*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social