Decisiones difíciles en inteligencia artificial

https://www.sciencedirect.com/science/article/pii/S0004370221001065?via%3Dihub

A medida que los sistemas de IA se integran en ámbitos sociales de gran importancia, los investigadores examinan ahora cómo diseñarlos y operarlos de forma segura y ética. Sin embargo, los criterios para identificar y diagnosticar los riesgos de seguridad en contextos sociales complejos siguen siendo poco claros y controvertidos. En este artículo, examinamos la vaguedad de los debates sobre la seguridad y el comportamiento ético de los sistemas de IA. Mostramos cómo esta vaguedad no puede resolverse únicamente mediante un formalismo matemático, sino que requiere una deliberación sobre la política de desarrollo y el contexto de despliegue. A partir de un nuevo léxico sociotécnico, redefinimos la indefinición en términos de distintos retos de diseño en etapas clave del desarrollo de sistemas de IA. El marco resultante de Hard Choices in Artificial Intelligence (HCAI) capacita a los desarrolladores al 1) identificar los puntos de solapamiento entre las decisiones de diseño y los principales retos sociotécnicos; 2) motivar la creación de canales de retroalimentación de las partes interesadas para que los problemas de seguridad puedan abordarse de forma exhaustiva. Como tal, la HCAI contribuye a un debate oportuno sobre la situación del desarrollo de la IA en las sociedades democráticas, argumentando que la deliberación debería ser el objetivo de la seguridad de la IA, no sólo el procedimiento por el que se garantiza.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social