Una instantánea de las fronteras de la equidad en el aprendizaje automático
La motivación detrás del artículo es destacar las direcciones de investigación clave en Fair ML que proporcionan una base científica para comprender el sesgo algorítmico. Estos incluyen, en general, el sesgo de identificación codificado en los datos sin acceso a los resultados (por ejemplo, tenemos acceso a los datos sobre quién fue arrestado y no quién cometió el crimen), el enfoque utilitario para la optimización y cómo se dirige exclusivamente a la mayoría sin tener en cuenta grupos minoritarios y la ética de la exploración. El papel de la exploración es clave, ya que para validar nuestras predicciones debemos tener datos que enumeren cómo se desarrolló el resultado. Esto plantea varias preguntas importantes como: ¿El impacto de la exploración se siente abrumadoramente por un subgrupo? Si consideramos que los riesgos de la exploración son demasiado altos, ¿cuánto retrasa el aprendizaje la falta de exploración? ¿Es ético sacrificar el bienestar de las poblaciones actuales por el bienestar percibido de las poblaciones futuras?
La siguiente dirección de investigación importante es la que busca formalizar la definición de equidad. Hay varias definiciones propuestas, la más popular es la definición estadística de equidad. Esta formulación impone la paridad en alguna medida estadística elegida en todos los grupos de los datos. La simplicidad, la naturaleza libre de suposiciones y la facilidad con la que se puede verificar una asignación estáticamente justa hace que esta definición sea popular. Sin embargo, una deficiencia importante es la imposibilidad demostrada de igualar simultáneamente múltiples medidas estadísticas deseables. Una definición estadística de equidad también puede ser computacionalmente costosa de modelar.
La segunda noción popular es la de equidad individual, que exige que, para una tarea determinada, el algoritmo trate a las personas que son similares de manera similar. Si bien esto es más rico, semánticamente, hace suposiciones sólidas que son difíciles de realizar en la práctica.
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).
Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.
Comentarios
Publicar un comentario