Crítica al Libro Blanco de la IA

Es una discusión informal de Gloria Macia.

La primera línea del documento habla de IA en salud y afirma que la salud es la primera aplicación de la IA. Luego nota que el Libro habla de una competición global, una guerra, como si ese fuera el objetivo. El libro asegura que es para promover los valores de la UE, pero si promueve una guerra, no promueve la paz, que es el primer valor de la UE.

Habla de inverir 3.200 millones eur, pero eso está muy por detrás de América 12 y Asia 6. Asegura que Europa va aliderar la computación aunque no tiene compañías de cloud, pero en realidad no tiene nada, así que es una afirmación sin fundamento

Habla de IA simbólica, pero no tiene nada que ver con el resto.

Habla de problemas medioambientales, pero no tiene que ver con esle documento. Hay ideas pero no puntos de actuación.

Habla de la formación, una cuestón importante.

Habla de la adopción de la IA, en el sector público y la salud, pero ella ha estado en hositales y tienen aún faxes.

Habla de que se debe crear u ecosistema de confianza, lo que es difícil de argmentar porque son muy genéricos y deberían ser más concretos. En concreto se opone a transparencia y diversidad. Es difícil que haya alguien en contra de la diversidad. Todos los sistemas del mercado tiene sesgos.

Pasa a hablar de las preocupaciones por posible daños causados  por la IA, incluso el reconocimiento facial. Un buen framework aborda esos riesgos y una economía liberal piensa en quien es responsable y como reclamar. Tres comonentes: derechos fundamentales, proteger minorías, seguridad. La forma es modificar la legislación en lo relativo ala IA. Pone como ejemplo la regulación de dispositivos médicos. Habla de gdpr y otras directivas y regulaciones. Habla de la transparencia y de lo difícil de saber que algo va mal  y eso dificulta al consumidor reclamar. Luego habla del software ¿es parte de la legislación? Toca el tema del aprendizaje permanente de los sistemas. El tema es que si hay una declaración de conformidad ¿qué pasa si cambia el software. Toca el tema de la responsabilidad en la cadena de suminisro. Finalmente toca puntos específicos como la ciberseguridad que no es un tema tratado en otros lugares. Gloria afirma que todos estos aspectos ya se contemplan e la regulación de dispositivos médicos: el responsable es el fabricante y es el responsable de la cadena. El software médico sigue siendo un dispositivo médico. En cuanto a las actualizaciones, la FDA ya ha emitido una guías sobre esto.

El documento dice que puede ser necesaria un nueva legislación, lo que no se sabe es si es un nuevo marco regulatorio o no.

Kuego dice que lo más importante son los algoritmos, mientras al principio ha dicho que son los datos y el poder de cálculo.

Luego habla de aplicaciones de alto riesgo, cosa que no existe en otras regulaciones, ni siquiera en dispositivos médicos. Cuanto más riesgo, más controles son necesarios. Así, este framework parece dirigido a dispositivos de alto riesgo. Para definir el riesgo hay dos criterios: sector, y el primer sector mencionado es salud; el segundo es el uso pretendido. Un dispositivo de salud de citas  no sería de alto riesgo; sin embargo la regulación de dispositivos medicos no lo considera dispositivo médico. El ejemplo es inapropiado para un dispositivo médico no de alto riesgo.

El documento pone reservas al software de selección de personal, lo  que no está claro que sea el mejor uso de la IA. La otra excepción es la identificación biométrica remota, que significa identificación de muchas personas por huellas, reconocimiento facial a distancia en espacio público, vigilancia masiva. Más adelante cita el GDPR que permite la identiicación masiva an ciscunstacias excepcionales de interés público basado en la legislación nacional. Esto me defrauda porque debería ser prohibido y no parece ser la intención de la Comisión.

Esto se va a hacer mediante un procedimiento de evaluacion, como en cualquier sector regulado, y se va a crear organismos para esto. Los organismos actuales se van a dedicar también a esto. Al final es una certificación por la que habrá que pagar.


Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social