Hacer que la Inteligencia Artificial sea ética, segura e innovadora

 El Comité de Asuntos Jurídicos adoptó el jueves tres informes sobre cuestiones específicas relacionadas con el mayor desarrollo y uso de sistemas de inteligencia artificial. Se espera que la Comisión presente una propuesta legislativa al respecto a principios de 2021.

Marco ético para la IA

La iniciativa legislativa de Iban García del Blanco (S&D, ES), aprobada con 20 votos a favor, ninguno en contra y 4 abstenciones, insta a la Comisión de la UE a presentar un nuevo marco legal en el que se definan los principios éticos que se deben utilizar en el desarrollo, despliegue y uso inteligencia artificial, robótica y tecnologías relacionadas en la UE, incluidos software, algoritmos y datos.

Los eurodiputados aprobaron propuestas sobre varios principios rectores que deben tenerse en cuenta en las leyes futuras, incluida una IA centrada en el ser humano, creada por el ser humano y controlada por el ser humano; seguridad, transparencia y responsabilidad; salvaguardias contra prejuicios y discriminación; derecho a reparación; responsabilidad social y ambiental y respeto de los derechos fundamentales.

Cuando se trata de IA con capacidades de aprendizaje automático (auto-mejora), debe diseñarse para permitir la supervisión humana. Si se utiliza una funcionalidad que suponga una infracción grave de los principios éticos y sea potencialmente peligrosa para las personas, las capacidades de autoaprendizaje deberían desactivarse y volver a funcionar de forma segura.

Responsabilidad por la IA que causa daños

La iniciativa legislativa de Axel Voss (PPE, DE), aprobada con 23 votos a favor, ninguno en contra y 1 abstención, pide que se adapte un marco de responsabilidad civil orientado al futuro, haciendo que quienes operan IA de alto riesgo sean estrictamente responsables si existe daño causado. Esto fomentaría la innovación al proporcionar a las empresas seguridad jurídica, protegería mejor a los ciudadanos y mejoraría su confianza en las tecnologías de IA al disuadir las actividades de riesgo. La responsabilidad estricta también debe aplicarse a los sistemas de inteligencia artificial que hayan causado daños repetidamente.

En este texto, los eurodiputados se centraron en las reclamaciones de responsabilidad civil contra los operadores de sistemas de inteligencia artificial. La responsabilidad cubriría la protección de la vida, la salud, la integridad física y la propiedad, así como daños inmateriales importantes si resultan en “pérdidas económicas sustanciales verificables”.

Derechos de propiedad intelectual

El informe de Stéphane Séjourné (Renew Europe, FR) aprobado por 19 votos a favor, 3 votos en contra y 2 abstenciones, subraya que la cuestión clave de la protección de los derechos de propiedad intelectual (DPI) en el contexto de la inteligencia artificial no se ha abordado hasta ahora. por la Comisión de la UE y pide una evaluación de impacto al respecto.

El informe destaca que el liderazgo mundial de la UE en IA requiere un sistema de propiedad intelectual eficaz y salvaguardias para que el sistema de patentes de la UE proteja a los desarrolladores. Los eurodiputados especifican que AI no debería tener personalidad jurídica, por lo que la "inventiva" sólo debería concederse a seres humanos. El texto aborda además los derechos de autor, la protección de los secretos comerciales y la distinción entre los derechos de propiedad intelectual para el desarrollo de tecnologías de IA y los derechos de propiedad intelectual potencialmente otorgados a las creaciones generadas por la IA.

Para obtener más detalles sobre los tres informes, consulte las enmiendas de transacción que fueron aprobadas el lunes.

Antecedentes

La votación en el pleno está prevista para la sesión plenaria del 19 al 22 de octubre. Los tres informes del Comité de Asuntos Jurídicos se basaron en el Libro Blanco sobre IA, Informe sobre el marco de seguridad y responsabilidad y Consulta pública de este verano.

https://www.europarl.europa.eu/news/en/press-room/20200925IPR87932/making-artificial-intelligence-ethical-safe-and-innovative

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social