Respuesta de CLAIRE a la Ley de IA

https://claire-ai.org/wp-content/uploads/2021/08/CLAIRE-EC-AI-Regulation-Feedback.pdf

Resumen de las preocupaciones y recomendaciones

Preocupación 1: El reglamento propuesto "propone una única definición de IA a prueba de futuro" (sección 1.1);

Sin embargo, esta definición es profundamente defectuosa.

Preocupación 2: La incertidumbre resultante de las definiciones problemáticas puede tener consecuencias perjudiciales

consecuencias perjudiciales para el desarrollo, la adopción y el uso de la IA por parte de las empresas europeas, especialmente las PYME y las nuevas empresas.

y las nuevas empresas.

Preocupación 3: La noción de calidad de los datos (y de los conjuntos de datos) sigue siendo poco clara. El reglamento propuesto plantea

El reglamento propuesto propone requisitos generales para la calidad de los datos, pero no establece criterios adecuados para evaluar la calidad de los datos.

la calidad de los datos. Sin esos criterios, los requisitos de calidad de los datos siguen siendo ineficaces.

Preocupación 4: No se presta atención al comportamiento adecuado de los sistemas de IA. La responsabilidad

y la rendición de cuentas para garantizar un comportamiento adecuado, incluido el uso de datos de entrada adecuados en el diseño, la experimentación, las pruebas y el funcionamiento.

diseño, la experimentación, las pruebas y el funcionamiento- no están claramente definidos.

Preocupación 5: El reglamento propuesto es vago en cuanto a los derechos de los ciudadanos y tiene importantes excepciones que

afectan negativamente a estos derechos.

Preocupación 6: El reglamento propuesto erosionará la competitividad europea en el ámbito de la IA.

Preocupación 7: Aunque la normativa europea consiga establecer normas mundiales, la mayor parte del desarrollo y la

desarrollo y la investigación pueden acabar teniendo lugar -o ser dirigidos desde- otro lugar, y generar beneficios (especialmente

beneficios económicos) sobre todo fuera de Europa. Esto erosionará la soberanía europea en el ámbito de la tecnología de la IA.

de la IA.

Preocupación 8: La financiación de la investigación e innovación en IA a través de Horizonte Europa y el Programa Europa Digital

es insuficiente y se distribuye de forma que deja fuera a partes importantes de la comunidad de la IA. En

Por lo tanto, no moviliza ni aprovecha la experiencia europea clave en IA y corre el riesgo de aumentar la fragmentación del ecosistema europeo de IA.

fragmentación del ecosistema europeo de la IA.

Preocupación 9: A falta de mecanismos e incentivos eficaces, la cooperación necesaria para

éxito a nivel europeo (y no sólo a nivel de los Estados miembros) no se logrará.

Preocupación 10: Europa está perdiendo la competencia por el talento de la IA con Estados Unidos y China. Europa necesita

Europa necesita detener la fuga de cerebros de la IA a todos los niveles, introduciendo rápidamente condiciones competitivas para atraer y retener el talento de la IA.

y retener el talento de la IA.

Preocupación 11: Una versión distribuida del faro europeo para la IA será ineficaz e

ineficaz e intrascendente, y el hecho de que los planes actuales sean vagos y confusos en cuanto al concepto

ya ha empezado a erosionar lo que podría ser un gran éxito para la IA europea, un poderoso símbolo y

un poderoso símbolo y nexo de unión para la ambición de la "IA hecha en Europa", y un atractivo mundial de talento.

Preocupación 12: Las acciones previstas en el plan son dispersas. Ninguna de ellas parece que vaya a

de la investigación o la innovación en materia de inteligencia artificial en el contexto mundial o que conduzcan a

capacidades de IA que cambien el juego. Existe un grave riesgo de que aumente la fragmentación y, en consecuencia

de un menor impacto global del ecosistema europeo de IA bajo este plan.

Respuesta de CLAIRE a la propuesta de la Comisión Europea para la regulación de la IA y el Plan Coordinado 2021 sobre IA 3

Recomendación 1: Cualquier definición de IA utilizada por la Comisión Europea debe ser aceptada por una

amplia mayoría de la comunidad internacional de la IA.

Recomendación 2: En lugar de basarse en una definición de las tecnologías de IA, las restricciones reglamentarias deberían

reglamentarias deberían basarse en las clases de casos de uso que permite la IA y en las características funcionales de los sistemas utilizados en estos casos.

sistemas utilizados en estos casos. En la mayor medida posible, la regulación de la IA debería ser tecnológicamente neutra.

Recomendación 3: El reglamento propuesto debe alinearse con los reglamentos existentes, especialmente con

el RGPD, en cuanto a los requisitos para el uso de datos de alta calidad.

Recomendación 4: El reglamento propuesto y el plan coordinado deberían centrarse en garantizar el

comportamiento adecuado de los sistemas de IA en aplicaciones de alto riesgo y, por lo tanto, adoptar la noción de IA de confianza.

DE CONFIANZA.

Recomendación 5: Asegurarse de que, a priori, los usos gubernamentales de las tecnologías de IA estén sujetos a las mismas

restricciones que todos los demás usos, y permitir sólo exenciones mínimas con una supervisión adecuada.

Recomendación 6: Centrarse en la inversión que pueda compensar la carga creada por cualquier regulación de la IA.

Mejorar el reglamento propuesto aclarando las definiciones y eliminando las incertidumbres. Hacer que la certificación

fácil y rentable.

Recomendación 7: Para lograr un impacto global, la inversión en el ecosistema europeo de investigación e innovación en IA debe ser mucho más importante.

de investigación e innovación de la IA debe ser mucho más importante, y debe realizarse de forma que se aprovechen

de manera que se aprovechen partes más amplias del ecosistema europeo de investigación en IA, y no puede dirigirse únicamente a un conjunto de redes de investigación débilmente coordinadas.

redes de investigación poco coordinadas.

Recomendación 8: Crear mecanismos adecuados de coordinación a nivel de la UE. Esto incluye

la coordinación de las redes de centros de excelencia en IA, de los EDIH, de al menos una parte considerable del FRR

del gasto en IA y de otros componentes clave del plan. El plan coordinado de IA debe estar más

más coordinado.

Recomendación 9

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social