GCHQ utilizará la inteligencia artificial para abordar el abuso sexual, la desinformación y la trata de niños

https://www.gchq.gov.uk/news/artificial-intelligence

Gran Bretaña es hoy una nación digital, que lidera y configura eventos en un mundo inextricablemente vinculado a través del ciberespacio. Ahora y en el futuro, el valor de nuestra economía, nuestro estilo de vida y nuestra influencia global se basará en nuestra infraestructura, capacidades y conocimientos digitales avanzados.


La inteligencia artificial, una forma de software que puede aprender a resolver problemas a una escala y velocidad imposibles para los humanos, es cada vez más esencial para la forma en que vivimos. Ya está transformando sectores tan diversos como la salud, las telecomunicaciones y la manufactura. El software de inteligencia artificial informa a nuestros navegadores, guía nuestras búsquedas en Internet y nos protege cada vez que hacemos una compra electrónica o abrimos una aplicación en nuestro teléfono inteligente.


En el siglo transcurrido desde su fundación, GCHQ ha estado a la vanguardia de la innovación en seguridad nacional. Generaciones de analistas brillantes, con su diversa mezcla de mentes, han utilizado su ingenio técnico, tecnología de vanguardia y asociaciones de amplio alcance para identificar, analizar e interrumpir las amenazas a nuestra nación.


Hoy, a medida que el cambio tecnológico continúa acelerándose, somos pioneros en nuevos enfoques para comprender el mundo complejo e interconectado que nos rodea. Durante mucho tiempo hemos defendido el uso responsable de la ciencia de datos y creemos que la IA estará en el corazón del futuro de nuestra organización.


Pensar en la IA nos anima a pensar en nosotros mismos y en lo que significa ser humano: nuestra forma de vida preferida, nuestros valores rectores y nuestras creencias comunes. El campo de la ética de la IA ha surgido durante la última década para ayudar a las organizaciones a convertir estos principios éticos en una guía práctica para los desarrolladores de software, lo que ayuda a integrar nuestros valores fundamentales en nuestras computadoras y software.


No fingiremos que no tenemos desafíos por delante. Al usar la IA, nos esforzaremos por minimizar y, cuando sea posible, eliminar los prejuicios, ya sea en torno al género, la raza, la clase o la religión. Sabemos que las personas que son pioneras en esta tecnología están determinadas por sus propias experiencias y antecedentes personales. Reconocer esto es solo el primer paso: debemos ir más allá y recurrir a una mezcla diversa de mentes para desarrollar, aplicar y gobernar nuestro uso de la IA. Si no se gestiona, nuestro uso de la IA incorpora y refleja las creencias y suposiciones de sus creadores: los sistemas de IA no son mejores ni peores que los seres humanos que los crean.


Nuestra sociedad está aprendiendo y creciendo: el Instituto Alan Turing y organismos similares están ayudando a mostrarnos cómo podemos construir y usar la IA de una manera más ética y responsable. GCHQ se compromete a crear y utilizar la inteligencia artificial de una manera que respalde la equidad, el empoderamiento, la transparencia y la responsabilidad, y a proteger a la nación de las amenazas de seguridad habilitadas por la inteligencia artificial que persiguen nuestros adversarios. Creemos que, al trabajar junto con nuestros socios en todo el Reino Unido y más allá, podemos hacer realidad esta visión.


Este documento describe la Gran Bretaña digital de hoy y nuestro enfoque basado en valores para los espacios donde las personas, la información y la tecnología se encuentran. Establece el marco de ética de datos y IA de GCHQ, y cómo pretendemos utilizar la IA en nuestras operaciones. Forma parte de nuestro compromiso con la inclusión, el debate y la apertura. El documento es el primer paso de un viaje mucho más largo: nos gustaría que se uniera a nosotros.


Ideas clave

Ilustración de un premio

Operamos dentro de un marco legal y regulatorio aclamado internacionalmente, que equilibra la preservación de importantes derechos y libertades individuales con la protección de amenazas significativas a nuestra forma de vida. La supervisión independiente garantiza que la forma en que ejercemos nuestros poderes, incluso mediante la aplicación de la inteligencia artificial, se haga de conformidad con la ley.


Ilustración de un candado

Nos tomamos muy en serio nuestras obligaciones de privacidad y derechos humanos. Para garantizar que el impacto en la privacidad se considere adecuadamente en cada circunstancia, llevamos a cabo una evaluación para determinar la necesidad y proporcionalidad de cualquier intrusión en la privacidad, tanto al considerar el uso de datos operativos para entrenar y probar el software de IA como al aplicar el software a el análisis de conjuntos de datos operativos. Estas evaluaciones están disponibles para su auditoría por la Oficina del Comisionado de Poderes de Investigación (IPCO).









Introducción

Imagínese una mañana fría y con corrientes de aire en Bletchley Park, el 18 de enero de 1944. Algunas de las mentes más brillantes de las matemáticas y la ingeniería modernas han estado trabajando juntas durante varios años en apoyo del esfuerzo bélico aliado.


Sin embargo, ha quedado claro que las computadoras electromecánicas utilizadas por los equipos ya no pueden seguir el ritmo de los sistemas de comunicación nazis. Durante seis meses, el ingeniero de telecomunicaciones Tommy Flowers ha estado trabajando en estricto secreto en un reemplazo. Esa mañana, el matemático Max Newman registra una sencilla afirmación: “Hoy llega Coloso”.


Todas las supercomputadoras modernas de GCHQ y los racks de procesadores avanzados en la nube provienen de la computadora que se entregó a Bletchley Park ese día. Colossus pesaba varias toneladas y dependía de varios miles de tubos de vacío para funcionar, pero era el wo

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social