Por qué la ética debe ser parte integral de la Inteligencia Artificial
Gran parte de la IA actual consiste en encontrar patrones estadísticos en datos históricos para hacer valiosas predicciones para el futuro. Sin embargo, cada vez hay más pruebas de que el uso de algoritmos, incluida la elaboración de perfiles raciales, puede perjudicar gravemente a sectores vulnerables de la sociedad, incluso cuando no hay una intención explícita de discriminación. Preguntamos a Mykola Pechenizkiy, profesor de Minería de Datos en la Universidad Tecnológica de Eindhoven y uno de los pioneros en IA ética, sobre sus esfuerzos para que la IA sea justa y responsable. "Debemos dejar de culpar a los datos y hacer que la IA sea digna de confianza por su diseño".
El 15 de enero de 2021, el gobierno holandés dimitió, justo dos meses antes de las elecciones generales. El motivo no fue, como cabría esperar, su gestión de la pandemia de Corona, sino un escándalo en el que miles de familias holandesas, muchas de ellas pertenecientes a minorías étnicas, fueron acusadas erróneamente de fraude en la asistencia a la infancia.
El escándalo es sólo un ejemplo de la creciente evidencia de que la IA y el aprendizaje automático tienen un impacto en la sociedad y en los seres humanos que es menos beneficioso. Otros ejemplos son el software de reconocimiento facial que discrimina los rostros de piel más oscura y los rostros de las mujeres, los algoritmos de generación de imágenes que autocompletan imágenes recortadas de mujeres con un top escotado o un bikini, o un modelo lingüístico de última generación (GPT-3) que tiene una tendencia explícita a relacionar a los musulmanes con la violencia.
"En otras palabras: La IA tiene un problema de sesgo", dice Pechenizkiy. "Sus predicciones reflejan necesariamente los datos en los que se basan, que, como sabemos, suelen estar sesgados de forma que refuerzan las desigualdades existentes en la sociedad. O, como les gusta decir a los analistas de datos: basura dentro, basura fuera".
LA ÉTICA SE CONVIERTE EN EL CENTRO DE ATENCIÓN.
La IA tiene un impacto cada vez mayor en nuestro mundo cotidiano, afectando a millones de personas no sólo en la industria, sino también en la sanidad, la educación, la administración y muchos otros ámbitos. Tomemos como ejemplo el análisis predictivo, que puede detectar a los pacientes para posibles infecciones coronarias basándose en datos de análisis de sangre rutinarios, o predecir los reingresos hospitalarios de pacientes con insuficiencia cardíaca utilizando una red neuronal basada en la atención.
Por lo tanto, el sesgo en los datos es un gran problema, que obliga a los informáticos a tomar partido. "Creo firmemente que la ética debe ser una parte integral de la IA. No puede seguir considerándose una mera idea de último momento en un problema de optimización, como ha ocurrido tradicionalmente", dice Pechenizkiy.
Comentarios
Publicar un comentario