La equidad de la IA es un imperativo económico y social. He aquí cómo abordarlo

 Los seres humanos tenemos muchos tipos de prejuicios; confirmación, anclaje y género entre ellos. Tales sesgos pueden llevar a las personas a comportarse de manera injusta y, como tal, como sociedad tratamos de mitigarlos.

Esto es especialmente importante cuando los humanos están en la posición de tomar decisiones de alto riesgo que impactan a otros. Lo hacemos a través de una combinación de educación, pautas de conducta y regulaciones.

Ahora que la inteligencia artificial (IA) está proporcionando un número creciente de recomendaciones a los tomadores de decisiones humanos, es importante asegurarse de que, como tecnología, no esté sesgada y, por lo tanto, respete el valor de la justicia.

De hecho, aquellas iniciativas que tienen como objetivo hacer que la IA sea lo más beneficiosa posible (relacionadas con la ética de la IA) incluyen la equidad de la IA como uno de los principales temas de discusión y trabajo concreto.

Es hora de identificar y sugerir una visión más completa de la equidad de la IA; uno que cubre todas las dimensiones y explota su interrelación

—Raja Chatila

Los ejemplos abundan y van desde las Directrices éticas para la IA de confianza del Grupo de expertos de alto nivel sobre IA de la Comisión Europea hasta el enfoque del Consejo del Futuro Global del Foro Económico Mundial sobre IA para la Humanidad.

Si bien la equidad de la IA ha sido un enfoque importante para las empresas, los gobiernos, las organizaciones de la sociedad civil y las iniciativas de múltiples partes interesadas durante varios años, hemos visto una gran cantidad de enfoques diferentes a lo largo del tiempo. Cada uno de estos se ha centrado en uno o varios aspectos de la equidad de la IA.

Pero ahora es el momento de identificar y sugerir una visión más completa; uno que cubra todas las dimensiones de la equidad de la IA y explote su interrelación, en un intento por construir el marco, las técnicas y las políticas más eficaces.

Sin embargo, aquí está el punto de fricción: dado que los sistemas de IA son construidos por humanos, que recopilan los datos de entrenamiento y prueba y toman las decisiones de desarrollo, pueden, conscientemente o de otra manera, ser inyectados con sesgos. Esto, a su vez, puede conducir al despliegue de sistemas de inteligencia artificial que reflejen y amplifiquen dichos sesgos, lo que resultará en decisiones o recomendaciones que son sistemáticamente injustas para ciertas categorías de personas.

Las herramientas para mejorar la explicabilidad de los modelos de IA permiten identificar las razones detrás de las decisiones de IA y, por lo tanto, pueden ser útiles para identificar sesgos.

—Francesca Rossi

Ya existen varias herramientas técnicas que pueden ayudar aquí: detectan y mitigan el sesgo de IA sobre varios tipos de datos (texto, audio, video, imágenes y datos estructurados). De hecho, los prejuicios existentes en la sociedad pueden estar integrados en los sistemas de inteligencia artificial, y las correlaciones no deseadas entre algunas características (como el género y la aceptabilidad de los préstamos) pueden mitigarse al detectarlas y evitarlas.

Las herramientas para mejorar la explicabilidad de los modelos de IA permiten identificar las razones detrás de las decisiones de IA y, por lo tanto, también pueden ser útiles para identificar sesgos en los datos o modelos de IA. Sin embargo, los aspectos técnicos y las soluciones al sesgo de la IA constituyen solo una dimensión, y posiblemente la más fácil, de lograr la equidad de la IA.

Más allá de los tecnicismos

Lograr la equidad de la IA no es solo un problema técnico; también requiere estructuras de gobernanza para identificar, implementar y adoptar herramientas apropiadas para detectar y mitigar el sesgo en la recopilación y el procesamiento de datos, por un lado, y marcos para definir la supervisión necesaria y adecuada para cada caso de uso específico, por el otro.

Tampoco olvidemos que la noción de equidad en sí misma depende del contexto y debe definirse de acuerdo con escenarios de aplicación específicos. La definición correcta solo se puede identificar a través de una consulta de múltiples partes interesadas en la que aquellos que construyen e implementan sistemas de IA los discuten con los usuarios y las comunidades relevantes, para identificar la noción relevante de equidad.

'Nadie me enseñó que era parcial'

Otra dimensión de la equidad de la IA se relaciona con la educación. Dado que los prejuicios humanos son en su mayoría inconscientes, cualquier camino para lograr la equidad de la IA comienza necesariamente con la creación de conciencia (educación). Los desarrolladores de inteligencia artificial deben ser conscientes de sus prejuicios y cómo podrían inyectarlos en los sistemas de inteligencia artificial durante el proceso de desarrollo.

Pero educar a los desarrolladores no es suficiente: todo el entorno que los rodea debe ser consciente de los posibles sesgos y aprender a detectarlos y mitigarlos. Se debe construir una cultura de equidad. Dentro de esto, los gerentes deben comprender cómo construir equipos de desarrolladores diversos y definir incentivos para la detección y mitigación de sesgos de IA.

¿Has leído?

La inteligencia artificial debe saber cuándo pedir ayuda humana

La inteligencia artificial hace que el pesto sea aún más delicioso

Cómo la IA puede desarrollar sus propios sesgos

Los ejecutivos y los tomadores de decisiones necesitan ayuda para comprender los problemas de sesgo de la IA y su posible impacto en los clientes, las comunidades afectadas y su propia empresa.


Esta educación debe complementarse con metodologías apropiadas, que no solo deben adoptarse, sino también aplicarse y facilitarse. Para lograr esto, las empresas deben definir el marco de gobierno interno más adecuado para sus modelos de negocio y dominios de implementación.

https://www.weforum.org/agenda/2021/01/how-to-address-artificial-intelligence-fairness/

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social