Cómo puede la UE conseguir una IA legalmente fiable: una respuesta a la propuesta de la Comisión Europea de una Ley de Inteligencia Artificial

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3899991

Este documento contiene la respuesta a la Propuesta de Ley de Inteligencia Artificial de la Comisión Europea de los miembros del Laboratorio de la Sociedad Digital Legal, Ética y Responsable (LEADS) de la Universidad de Birmingham. La propuesta pretende dar expresión al concepto de "IA legal". Este concepto se mencionó, pero no se desarrolló, en las Directrices Éticas para una Inteligencia Artificial Confiable (2019) del Grupo de Expertos de Alto Nivel en Inteligencia Artificial de la Comisión, que en cambio limitó su discusión a los conceptos de Inteligencia Artificial "Ética" y "Robusta". Tras una breve introducción (capítulo 1), exponemos los numerosos aspectos de la Propuesta que acogemos con satisfacción y destacamos nuestro apoyo incondicional a su objetivo de proteger los derechos fundamentales (capítulo 2). A continuación, desarrollamos el concepto de "IA jurídicamente fiable", argumentando que debe basarse en el respeto a los tres pilares en los que se basan las sociedades democráticas liberales contemporáneas, a saber: los derechos fundamentales, el Estado de Derecho y la democracia (capítulo 3). Basándonos en este marco conceptual, argumentamos en primer lugar que la Propuesta no refleja los derechos fundamentales como reivindicaciones con un mayor estatus moral y legal, lo que somete cualquier intervención en materia de derechos a un exigente régimen de escrutinio y debe satisfacer las pruebas de necesidad y proporcionalidad. Además, la propuesta no siempre reconoce con precisión los daños y perjuicios asociados a los distintos tipos de sistemas de IA ni asigna adecuadamente la responsabilidad por ellos. En segundo lugar, la Propuesta no proporciona un marco eficaz para la aplicación de los derechos y deberes legales, y no garantiza la seguridad jurídica y la coherencia, que son esenciales para el Estado de Derecho. En tercer lugar, la Propuesta no garantiza la transparencia significativa, la responsabilidad y los derechos de participación pública, por lo que no refleja una protección adecuada de la democracia (capítulo 4). Sobre la base de estas deficiencias en el respeto y la promoción de los tres pilares de la IA jurídicamente fiable, ofrecemos recomendaciones detalladas para la revisión de la Propuesta (capítulo 5).

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social