El Diablo está en los Detalles
La “auditoría algorítmica” es el nuevo tema candente desde las salas de juntas hasta los laboratorios de inteligencia artificial y los pasillos de varios edificios gubernamentales. Las auditorías, el arma más reciente en el arsenal de IA responsable, se han convertido en una palanca mediante la cual las corporaciones, los legisladores y los expertos en IA ética compiten por influir sobre esta tecnología.
Sin embargo, perdido en la mezcla está lo que es exactamente una auditoría. Nuestro campo no tiene definiciones claras del término; los reguladores y los formuladores de políticas aún no han aprobado pautas claras sobre lo que implica una auditoría (aunque múltiples políticas las exigen); ninguna industria ha creado todavía una metodología estándar para las auditorías de IA; ningún organismo normativo ha publicado uno que se utilice habitualmente. Tenemos algunas incursiones en las "evaluaciones de impacto", puede considerarlas "audit lite", lo que proporciona algún indicador de hacia dónde se dirige.
Para comprender por qué esto es fundamental, tracemos un mapa de los eventos de la decisión fundamental de HireVue de detener el análisis facial en sus evaluaciones de contratación. Enterrada en el texto del artículo está esta frase críptica: "HireVue dice que una 'auditoría algorítmica' de su software realizada el año pasado muestra que no alberga prejuicios".
Términos que llaman la atención a alguien que ha trabajado en este campo: "algoritmo", "auditoría", "software", "no alberga sesgos". Profundicemos en los detalles.
Comentarios
Publicar un comentario