Europa ya está desarrollando políticas de privacidad. La IA podría venir después
Las empresas que utilizan inteligencia artificial en la UE pronto podrían tener que ser auditadas primero, según las nuevas reglas que la Unión Europea propondrá la próxima semana.
Las regulaciones se esbozaron en parte en un libro blanco de la UE el año pasado y tienen como objetivo garantizar la aplicación responsable de la IA en situaciones de alto riesgo como la conducción autónoma, la cirugía remota o la vigilancia policial predictiva. Los funcionarios quieren asegurarse de que dichos sistemas estén capacitados en la protección de la privacidad y en conjuntos de datos diversos.
La propuesta surge cuando las capacidades de inteligencia artificial están integradas en todo, desde compras en línea hasta recomendaciones de música e incluso detección de fiebre y otras tecnologías de detección de Covid implementadas durante la pandemia. La tecnología está impulsando la innovación, pero también activa cada vez más las alarmas en torno a la discriminación, el uso indebido, la privacidad y otros problemas.
El reconocimiento facial es particularmente controvertido. China ha sido acusada de abusos contra los derechos humanos en Xinjiang, donde se ha dirigido a la población uigur mediante sistemas de escaneo. Mientras tanto, algunos grupos de libertades civiles advierten sobre los peligros de discriminación o identidades erróneas cuando las fuerzas del orden utilizan la tecnología, que a veces identifica erróneamente a mujeres y personas con tonos de piel más oscuros.
Docenas de grupos de derechos digitales están instando a la UE a prohibir ciertos usos de herramientas de reconocimiento facial en Europa, apuntando a un mayor uso de la tecnología por parte de actores públicos y privados a pesar de las estrictas reglas de privacidad del bloque. "Estamos profundamente preocupados por el dramático aumento en el despliegue de tecnologías biométricas en toda Europa que allanan el camino para la vigilancia masiva indiscriminada", dijo Friederike Reinhold, asesora de políticas senior de AlgorithmWatch. "Vemos una necesidad urgente de trazar líneas rojas aquí".
Comentarios
Publicar un comentario