La presentación de Access Now a la consulta de de la Comisión Europea sobre la adopción de la la Ley de Inteligencia Artificial

https://www.accessnow.org/cms/assets/uploads/2021/08/Submission-to-the-European-Commissions-Consultation-on-the-Artificial-Intelligence-Act.pdf

Access Now acoge con satisfacción la propuesta pionera de la Comisión Europea de un marco regulador para la

inteligencia artificial. Hemos señalado sistemáticamente la insuficiencia de las directrices éticas y

y los enfoques autorreguladores, y hace tiempo que pedimos una intervención reguladora en el ámbito de la IA. La

propuesta actual ofrece un marco viable para garantizar la protección de los derechos fundamentales, pero

pero requiere modificaciones significativas en una serie de áreas o corre el riesgo de no alcanzar el objetivo de

proteger los derechos fundamentales.

En términos generales, el principal objetivo de la propuesta es regular los llamados sistemas de IA de alto riesgo, es decir

aquellos que suponen un riesgo de daño para la salud y la seguridad o un riesgo de impacto adverso sobre los derechos fundamentales.

El Título III de la Propuesta "contiene normas específicas para los sistemas de IA que crean un alto riesgo para la salud y

seguridad o los derechos fundamentales de las personas físicas", y en el anexo III figura una lista de sistemas de IA de alto riesgo.

III. La propuesta también contiene disposiciones para prohibir determinadas prácticas de IA en el artículo 5, que, según la

La propuesta también contiene disposiciones para prohibir determinadas prácticas de IA en el artículo 5, que, según la exposición de motivos, "comprende todos los sistemas de IA cuyo uso se considera inaceptable por contravenir los valores de la Unión".

por contravenir los valores de la Unión". Además, la Propuesta contiene disposiciones de transparencia

1

obligaciones para ciertos sistemas de IA como los chatbots y los sistemas de reconocimiento de emociones. Como argumentaremos

como argumentaremos más adelante, una serie de deficiencias de la Propuesta impiden que alcance adecuadamente el objetivo de

proteger los derechos fundamentales.

Como explicamos a continuación, las definiciones de reconocimiento de emociones y categorización biométrica contienen

ciertos defectos técnicos que deben ser abordados. Sin definir correctamente estas aplicaciones de la IA

no podemos esperar abordarlas adecuadamente en la regulación. Por lo tanto, la sección II propone definiciones alternativas

alternativas para ambos términos, así como un análisis de los graves riesgos que suponen para los derechos fundamentales.

derechos fundamentales. Una vez definidos correctamente estos dos términos, argumentamos en la Sección III que ambos deben ser

prohibidos.

La Sección III comienza con un análisis de las cuatro prohibiciones existentes en el artículo 5 de la Propuesta. En

señalamos los fallos en la formulación de las prohibiciones del artículo 5, apartados 1(a), 1(b) y 1(c), y

proponemos formulaciones alternativas. A continuación, proporcionamos justificaciones y propuestas de formulación para una serie de prohibiciones adicionales.

de una serie de prohibiciones adicionales. Por último, argumentamos que el artículo 5 debe completarse con una lista de

criterios para definir el "riesgo inaceptable", de modo que otras aplicaciones de la IA puedan añadirse a la lista de

prácticas prohibidas si surgen pruebas de que plantean riesgos inaceptables, y que debe añadirse un mecanismo

debe añadirse al artículo 7 para permitir que se añadan otras prácticas al artículo 5.

En la sección IV abordamos la relativa falta de obligaciones impuestas a los "usuarios" de los sistemas de IA en comparación con las impuestas a los "proveedores".

de las que se imponen a los "proveedores". Sugerimos que se impongan obligaciones adicionales a los usuarios, como por ejemplo

exigir que se lleve a cabo algún tipo de evaluación de impacto para todos los sistemas de IA de alto riesgo. En la sección V, analizamos la necesidad de ampliar el alcance de la base de datos de sistemas de IA de alto riesgo que se puede consultar públicamente

propuesta en el artículo 60.

La sección VI plantea una serie de preocupaciones sobre la propuesta actual de los "cajones de arena" reguladores de la IA en los artículos 53 y 54, y formula recomendaciones.

artículos 53 y 54, y hace recomendaciones para una serie de modificaciones, incluyendo que los casos de uso

los casos de uso del apartado (i), es decir, los relacionados con las aplicaciones policiales de la IA, se eliminen

del artículo 54. La sección VIII aborda una serie de lagunas en los mecanismos de aplicación y reparación

y, por último, en la sección VIII señalamos una serie de preocupaciones adicionales que deben ser abordadas en la propuesta.

que deben abordarse en la propuesta.

Aunque la propuesta actual proporciona un marco viable para regular las aplicaciones perjudiciales de la IA, requiere

requiere serias modificaciones en una serie de áreas. Esperamos trabajar con los

Esperamos trabajar con los colegisladores en los próximos meses para garantizar que se aborden estas cuestiones.



*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social