Una norma para acabar con el capitalismo de la vigilancia - ¡Pánico! en el Consejo - El Reino Unido quiere más innovación en IA
Conoce al IEEE 7000. No es un pájaro, un avión o el nuevo humanoide de Elon Musk. Es la primera norma mundial que mostrará a las empresas tecnológicas de forma muy práctica cómo construir tecnología que aporte valor humano y social, en lugar de sólo dinero. El IEEE (pronunciado ojo-triple E) es la mayor asociación de ingeniería del mundo, con más de 400.000 miembros, y tiene mucha importancia en el sector.
AI: Decoded llamó a Sarah Spiekermann, de la Universidad de Economía y Negocios de Viena, que participó en el esfuerzo, para saber más.
Recalibrando la IA: La norma se inspira en el concepto de "ingeniería basada en valores", que hace que las empresas sean conscientes de los retos éticos de la tecnología y les ayuda a dar prioridad al bienestar de los seres humanos. Spiekermann dijo que el modelo de capitalismo de vigilancia neoliberal -conocido por Shoshana Zuboff- ya no funciona. "El mundo está preparado para una nueva forma de hacer las cosas", dijo Spiekermann. "Tenemos que vivir con beneficios razonables en lugar de extraordinarios", continuó.
¿Qué es una "buena" IA? La norma, que ha tardado cinco años en elaborarse, se presentará el 15 de septiembre. Como adelanto, Spiekermann me dice que la IEEE 7000 determinará que una "buena" IA será aquella que dé a las empresas que han externalizado su IA el control sobre la calidad de los datos utilizados en el sistema de IA; los procesos de selección que alimentan la IA; el diseño del algoritmo; la evolución de la lógica de la IA y "las mejores técnicas disponibles para un nivel suficiente de transparencia de cómo la IA está aprendiendo y llegando a sus conclusiones".
No es demasiado tarde: Las empresas tecnológicas, entre ellas Google y Facebook, se han esforzado por promover su visión de la ética de la IA. Spiekermann dijo que su actual trabajo ético puede integrarse en la norma IEEE 7000. Y cuando estas empresas lancen nuevas tecnologías, "pueden utilizar este proceso y vincularlo a una nueva misión, de modo que puedan migrar lentamente fuera del modelo capitalista de vigilancia en el que han estado trabajando", dijo Spiekermann.
ACTO DE INTELIGENCIA ARTIFICIAL
PÁNICO EN EL CONSEJO: Uno de los temas más controvertidos de la Ley de Inteligencia Artificial son sus prohibiciones de usos "inaceptables" de la IA, y en concreto la restricción del uso de la identificación biométrica remota por parte de las fuerzas del orden en lugares públicos. El proyecto de ley no los prohíbe, y permite su uso para luchar contra la delincuencia "grave". Es probable que el Parlamento Europeo impulse una prohibición más estricta. Mientras tanto, el Consejo de la Unión Europea, formado por diplomáticos de los países miembros de la UE, no está tan seguro. Los países de la UE no quieren que Bruselas dicte cuestiones de seguridad nacional, y los ministros de Interior de la UE están en pie de guerra por el intento de la Ley de Inteligencia Artificial de restringir las fuerzas del orden en toda la UE.
Pensar fuera de la caja: Los diplomáticos del Consejo que trabajan en asuntos de interior y seguridad piden un mayor control del proyecto de ley de inteligencia artificial de la UE y su prohibición del reconocimiento facial para las fuerzas del orden en lugares públicos. De hecho, algunos abogan por que las aplicaciones de la IA para el cumplimiento de la ley se separen del proyecto de ley sobre IA y se aborden en una ley aparte. Según un documento obtenido por Laura Kayali de POLITICO, los diplomáticos quieren evaluar si las "diferencias entre los sectores público y privado justifican un marco regulador separado para el uso de sistemas de IA por parte de las fuerzas del orden". Sin duda molestos, los diplomáticos también cuestionaron por qué la IA utilizada por las fuerzas del orden se califica de "alto riesgo", pero los mismos usos por parte del sector privado no. Los activistas de los derechos también cuestionan la misma lógica, pero quieren que las mismas normas se apliquen también a las empresas privadas, a diferencia de los diplomáticos de la UE, que quieren las mismas exenciones.
El caos es una escalera: tener un conjunto de normas diferentes para los ciudadanos y para las fuerzas del orden no es una idea totalmente descabellada. Por ejemplo, el estricto régimen de protección de datos del RGPD no se aplica a las fuerzas del orden, que se rigen por la Directiva de Fuerzas del Orden. Suprimir todas las menciones a las fuerzas del orden de la Ley de Inteligencia Artificial haría que el proyecto de ley fuera más aceptable para los capitales preocupados por la seguridad, y sería una oportunidad para ampliar el alcance de la prohibición de la identificación biométrica remota a las empresas privadas. Por supuesto, esta estrategia requeriría que la Comisión Europea, que redacta las leyes de la UE, aceptara empezar a redactar un proyecto de ley separado para las fuerzas del orden. Sin la bendición de la Comisión, la Ley de IA podría fracasar en uno de sus objetivos principales: proteger a los ciudadanos de la vigilancia biométrica masiva llevada a cabo por el Estado.
*** Translated with www.DeepL.com/Translator (free version) ***
Comentarios
Publicar un comentario