La auditoría de IA es la próxima gran novedad. Pero, ¿garantizará algoritmos éticos?
Desde sistemas de reclutamiento discriminatorios hasta chat bots racistas, las trampas éticas de la inteligencia artificial están bien documentadas. Con el espectro de la regulación de la IA que se avecina, las empresas se apresuran a comprender las implicaciones morales de los algoritmos.
Para satisfacer esta necesidad, surge la incipiente industria de auditoría de IA. Pero la falta de un marco ético universal de IA ha llevado a enfoques fortuitos y temores de que las auditorías no solo no detecten el sesgo, sino que legitimen las tecnologías dañinas.
“En 2018, hubo una explosión en el interés por la ética digital como resultado del escándalo de Cambridge Analytica”, dice Emre Kazim, investigador de UCL y cofundador de la empresa de auditoría y aseguramiento Holistic AI. “En ese momento, los ingenieros se interesaron más en contratar personas de diferentes disciplinas: sociología, antropología, derecho. Hice mi doctorado en filosofía y comencé a trabajar con ingenieros que en realidad estaban construyendo estos sistemas ".
Kazim dice que ha evolucionado un enfoque bifurcado para la auditoría de IA. En un extremo, está la consultoría ligera, en la que las empresas buscan una orientación de nivel relativamente alto, una estrategia ética o un impulso de reputación. En el otro extremo, hay una auditoría forense, donde un auditor investigará los datos y algoritmos de una empresa. “A veces entramos y damos una presentación y decimos, 'tal vez piense en estos problemas' y 'aquí hay una buena práctica'”, dice Kazim. "En otros contextos, podemos entrar y hacer una inmersión profunda".
Comentarios
Publicar un comentario