Libro Blanco UE: la UE vuelve a perder pie en IA y derechos humanos

La adopción de cualquier tecnología, particularmente en el sector público, no debe ser un objetivo independiente y no tiene valor en sí mismo. Los enfoques de los problemas basados ​​en la IA tienen ventajas en ciertos casos, pero también conllevan riesgos únicos. Como tal, la IA no es la solución correcta en todos los casos y no debe verse como una panacea. En los casos en los que no hay impactos negativos graves y hay evidencia de un beneficio real, los sistemas basados ​​en IA pueden considerarse como una opción junto con otros enfoques, pero debemos asegurarnos de que los formuladores de políticas no se desvíen por los eslóganes de marketing y la publicidad infundada de IA.

La Comisión Europea, sin demostrar claramente por qué, evidentemente quiere una mayor captación de IA, por lo que está dispuesta a hacer un esfuerzo para garantizar que la tecnología sea confiable mitigando los riesgos. En cambio, la UE debería ganarse la confianza de las personas para sus iniciativas de IA al poner la protección de los derechos fundamentales por encima de las preocupaciones sobre la competitividad global en IA. El objetivo principal debe ser evitar daños individuales y sociales, no mitigarlos.

A diferencia del enfoque de evaluación de riesgo binario, Access Now argumenta que para todas las aplicaciones en todos los dominios, la carga de la prueba debe recaer en la entidad que desea desarrollar o implementar el sistema de IA para demostrar que no viola los derechos humanos a través de un ser humano obligatorio evaluación del impacto de los derechos (HRIA). Esto debe aplicarse tanto para el sector público como para el sector privado, como parte de un marco más amplio de diligencia debida.

La UE debe establecer un objetivo político explícito para detener o prohibir las aplicaciones de toma de decisiones automatizadas o sistemas de IA en áreas donde mitigar cualquier riesgo potencial o violación no es suficiente y ningún remedio u otro mecanismo de salvaguarda podrían solucionar el problema. Este enfoque está en línea con los valores básicos de la Unión Europea basados ​​en los Tratados y la Carta de los Derechos Fundamentales de la UE.


Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social