La equidad de la IA no es solo una cuestión ética

 Para aprovechar plenamente las oportunidades rentables de la IA, primero debemos comprender de dónde provienen los sesgos. A menudo se asume que la tecnología es neutral, pero la realidad está lejos de serlo. Los algoritmos de aprendizaje automático son creados por personas, todas con sesgos. Nunca son completamente "objetivos"; más bien reflejan la visión del mundo de quienes los construyen y los datos con los que se alimentan.

Los juicios humanos sesgados pueden afectar los sistemas de IA de dos formas diferentes. El primero es el sesgo en los datos de los que aprenden los sistemas. Puede ver este juego por sí mismo: realice una búsqueda de imágenes en Google para "corte de pelo profesional" y otra para "corte de pelo no profesional". El "corte de pelo profesional" arroja resultados que son exclusivamente de hombres blancos, mientras que el "corte de pelo no profesional" tiene mucha más diversidad racial y de género. (Este problema fue descubierto originalmente por los usuarios de Twitter en 2016).

 ¿Es realmente cierto que solo los hombres blancos tienen cortes de pelo profesionales? Por supuesto no. Los resultados de Google se basan en artículos escritos sobre cortes de pelo profesionales. Reflejan decisiones editoriales humanas para incluir y priorizar a los hombres blancos. Por tanto, una búsqueda supuestamente "neutral" proporciona un resultado decididamente innecesario. El sesgo basado en normas históricas es bastante común.

Podemos prevenir parte del daño utilizando principios éticos de diseño de IA. También debemos asegurarnos de que nuestros algoritmos sean explicables, auditables y transparentes. Así como no aceptaríamos que los humanos tomen decisiones importantes que afecten a otros sin ningún tipo de supervisión o responsabilidad, no deberíamos aceptarlo de los algoritmos.

https://hbr.org/2020/10/ai-fairness-isnt-just-an-ethical-issue

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje