Explicabilidad (de la inteligencia artificial)

https://e-revistas.uc3m.es/index.php/EUNOM/article/view/6819/5372

La Inteligencia Artificial (IA) se ha convertido en uno de los ejes centrales de las estrategias de digitalización en la Unión Europea (UE). A pesar de sus grandes beneficios este grupo de tecnologías emergentes también presenta importantes riesgos y desafíos éticos que deben abordarse. Por ello, la UE ha propuesto cuatro principios éticos fundamentales para la IA: la justicia, el respeto por la  autonomía humana,  la previsión del daño  y  la  explicabilidad.  El concepto central de este trabajo es la explicabilidad de la IA (XAI). De este modo, además de poner en contexto la importancia de este principio ético, se abordarán los aspectos centrales en torno al mismo: qué es la explicabilidad; por qué son importantes las explicaciones (en el ámbito  de  la  IA);  cuándo  es  necesario  dar  explicaciones  y  de  qué  tipo  de  explicaciones disponemos para hacer comprender a la ciudadanía las decisiones tomadas por sistema de IA.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social