Por qué la ética debe ser parte integral de la Inteligencia Artificial

https://www.tue.nl/en/our-university/departments/biomedical-engineering/the-department/news/news-overview/16-03-2021-why-ethics-should-be-integral-part-of-artificial-intelligence/?twclid=11428270583956090887

Gran parte de la IA actual consiste en encontrar patrones estadísticos en datos históricos para hacer valiosas predicciones para el futuro. Sin embargo, cada vez hay más pruebas de que el uso de algoritmos, incluida la elaboración de perfiles raciales, puede perjudicar gravemente a sectores vulnerables de la sociedad, incluso cuando no hay una intención explícita de discriminación. Preguntamos a Mykola Pechenizkiy, profesor de Minería de Datos en la Universidad Tecnológica de Eindhoven y uno de los pioneros en IA ética, sobre sus esfuerzos para que la IA sea justa y responsable. "Debemos dejar de culpar a los datos y hacer que la IA sea digna de confianza por su diseño".


El 15 de enero de 2021, el gobierno holandés dimitió, justo dos meses antes de las elecciones generales. El motivo no fue, como cabría esperar, su gestión de la pandemia de Corona, sino un escándalo en el que miles de familias holandesas, muchas de ellas pertenecientes a minorías étnicas, fueron acusadas erróneamente de fraude en la asistencia a la infancia.


El escándalo es sólo un ejemplo de la creciente evidencia de que la IA y el aprendizaje automático tienen un impacto en la sociedad y en los seres humanos que es menos beneficioso. Otros ejemplos son el software de reconocimiento facial que discrimina los rostros de piel más oscura y los rostros de las mujeres, los algoritmos de generación de imágenes que autocompletan imágenes recortadas de mujeres con un top escotado o un bikini, o un modelo lingüístico de última generación (GPT-3) que tiene una tendencia explícita a relacionar a los musulmanes con la violencia.


"En otras palabras: La IA tiene un problema de sesgo", dice Pechenizkiy. "Sus predicciones reflejan necesariamente los datos en los que se basan, que, como sabemos, suelen estar sesgados de forma que refuerzan las desigualdades existentes en la sociedad. O, como les gusta decir a los analistas de datos: basura dentro, basura fuera".



LA ÉTICA SE CONVIERTE EN EL CENTRO DE ATENCIÓN.

La IA tiene un impacto cada vez mayor en nuestro mundo cotidiano, afectando a millones de personas no sólo en la industria, sino también en la sanidad, la educación, la administración y muchos otros ámbitos. Tomemos como ejemplo el análisis predictivo, que puede detectar a los pacientes para posibles infecciones coronarias basándose en datos de análisis de sangre rutinarios, o predecir los reingresos hospitalarios de pacientes con insuficiencia cardíaca utilizando una red neuronal basada en la atención.


Por lo tanto, el sesgo en los datos es un gran problema, que obliga a los informáticos a tomar partido. "Creo firmemente que la ética debe ser una parte integral de la IA. Ya no puede considerarse como una mera ocurrencia posterior a un problema de optimización, como ha ocurrido tradicionalmente", dice Pechenizkiy.


"Hoy en día, la IA y el aprendizaje automático están estrechamente relacionados con la equidad y la no discriminación. Si se construye un algoritmo que ayude a los empresarios a decidir a quién se debe invitar a una entrevista de trabajo, no sólo debe ser preciso, sino también respetar diferentes aspectos de la diversidad, y cumplir con la ley y la ética. O si se diseña un sistema de IA para diagnosticar el cáncer de piel, debe funcionar tanto para hombres como para mujeres, y para personas de pieles más claras y más oscuras".

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje