Atención reguladores de la UE: necesitamos algo más que "ética" de la IA para mantenernos a salvo

 En esta publicación, Access Now y European Digital Rights (EDRi) analizan los desarrollos recientes en el debate sobre la IA de la UE y explican por qué necesitamos un enfoque audaz y de líneas brillantes que priorice nuestros derechos fundamentales. Esto fue coescrito por Sarah Chander, asesora principal de políticas de EDRi, y Ella Jakubowska, oficial de políticas y campañas de EDRi.

Los últimos meses han sido un viaje tumultuoso para aquellos de nosotros preocupados por garantizar la protección de nuestros derechos fundamentales a medida que la UE desarrolla su política de inteligencia artificial (IA). Si bien los vicepresidentes de la Comisión de la UE, Vestager y Jourová, se comprometieron recientemente a combatir "de manera proactiva" la amenaza de los sistemas de IA que refuerzan la discriminación estructural, otros desarrollos han sido menos prometedores. Varios Estados miembros han adoptado una posición firme en contra de la regulación en el debate, y ayer el Parlamento Europeo votó sobre una serie de informes relacionados con la IA, incluido un informe sobre IA y ética, que dejan mucho que desear. Con la Comisión preparándose para proponer una nueva legislación a principios del próximo año, hay mucho en juego.

Aquí echamos un vistazo más de cerca a estos desarrollos y explicamos qué deben hacer los reguladores de la UE para salvaguardar nuestros derechos.

Los Estados miembros le dicen a la UE que no cargue a las empresas con regulaciones sobre IA

En un documento de posición dirigido por Dinamarca, 14 Estados miembros (incluidos Francia y Polonia) han pedido a la UE que “evite establecer barreras y requisitos onerosos que pueden ser un obstáculo para la innovación”. Advierten contra la regulación excesiva y abogan por un enfoque que ponga la innovación al frente y al centro.

Si bien los firmantes del puesto reconocen los riesgos que plantean los sistemas de inteligencia artificial, siempre proponen las soluciones equivocadas: los instrumentos de derecho indicativo avanzaban sobre la convicción infundada de que la innovación sin restricciones siempre conducirá a beneficios sociales. En 2020 deberíamos finalmente dejar de lado la idea de que la innovación es un bien inequívoco en sí mismo y que podemos confiar en las empresas de tecnología para autorregularse. Algunos tipos de innovación amenazan y socavan los derechos fundamentales, pero prometen enormes beneficios a las empresas que los respaldan. Solo al hacer cumplir las obligaciones legales de quienes desarrollan o implementan sistemas de IA, lograremos proteger a las personas de la vigilancia masiva impulsada por la IA, la vigilancia policial predictiva y otras “innovaciones” dañinas.

Finalmente, al abordar el uso de la IA para la identificación biométrica, como a través del reconocimiento facial, un uso que EDRi y Access Now han demostrado para permitir la vigilancia masiva ilegal, el Informe falla espectacularmente en seguir su propia lógica. El Informe enfatiza la necesidad de proporcionalidad y un interés público sustancial para justificar cualquier procesamiento biométrico. Sin embargo, no concluye que algunos usos de la IA, como el uso para la vigilancia indiscriminada o arbitraria de datos biométricos sensibles de las personas en espacios públicos, sean fundamental e inherentemente desproporcionados.

https://www.accessnow.org/eu-regulations-ai-ethics/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje