Cuatro Principios para integrar la IA y el Buen Gobierno

Es el primer documento de la Comisión Oxford de IA & Buen Gobierno.

La inteligencia artificial (IA) ha llegado al sector público. Prometedora de resolver Algunos de nuestros desafíos sociales y de políticas públicas más apremiantes, AI ser cada vez más generalizado. Muchos gobiernos, agencias e instituciones públicas. 

Ya empleamos IA en la prestación de servicios públicos, el distribución de recursos y entrega de gobernanza bienes. En el sector público, la gobernanza habilitada para IA puede permitirse nuevas eficiencias que tienen el potencial de transformar una amplia gama de tareas de servicio público.
Pero el diseño miope y el uso de IA pueden crear nuevos problemas, afianzar desigualdades existentes y calcificar y finalmente socavar las organizaciones gubernamentales. Marcos para la adquisición e implementación de IA en el servicio público se han mantenido ampliamente subdesarrollado. Con frecuencia, las regulaciones existentes y las leyes nacionales ya no son adecuadas para garantizar
buen comportamiento (de AI o proveedores privados) y están mal equipados para proporcionar orientación sobre lo democrático uso de IA.

A medida que la tecnología evoluciona rápidamente, necesitamos reglas para guiarnos

El uso de la inteligencia artificial en formas que salvaguarden los valores democráticos.
¿En qué condiciones se puede poner en servicio la IA?
¿buen gobierno?
Ofrecemos un marco para integrar AI con buena gobernanza. Creemos que con atención dedicada
y la investigación de políticas basadas en evidencia, debería ser posible superar la combinación técnica y desafíos organizacionales para integrarse exitosamente AI con buen gobierno. Hacerlo requiere
trabajando hacia: 
  • Diseño inclusivo: cuestiones relacionadas con la discriminación y sesgo de IA en relación con conjuntos de datos inadecuados, exclusión de minorías y subrepresentados grupos, y la falta de diversidad en el diseño.
  • Adquisición informada: problemas relacionados con la adquisición y desarrollo en relación con la debida diligencia, diseño y especificaciones de usabilidad y la evaluación de riesgos y beneficios.
  • Implementación intencional: problemas relacionados con el uso de IA en relación con la interoperabilidad, necesidades de capacitación para servidores públicos e integración con la toma de decisiones procesos.
  • Responsabilidad persistente: problemas en torno a la responsabilidad y transparencia de la IA en  relación con Algoritmos de "caja negra", la interpretabilidad y explicabilidad de sistemas, monitoreo y auditoría.
Durante los próximos dieciocho meses se desarrollará OxCAIGG recomendaciones accionables y basadas en evidencia para permitir gobiernos y administraciones públicas para aprovechar la IA. 

Nuestra misión es:
  1. Actuar con agilidad y propósito para entender el impacto de las herramientas de IA que se utilizan actualmente en gobernanza, administración pública, seguridad social bienestar y provisión de bienes públicos.
  2. Asistir a los formuladores de políticas y empresarios con la política preguntas, aplicaciones públicas e ideas de diseño que Poner la inteligencia artificial y el aprendizaje automático en el servicio público.
  3. Identificar soluciones y guiar los procesos de formulación de políticas. de una manera que fortalece la vía de desarrollo por traer IA para resolver en lugar de complicar problemas sociales.

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social