Explicabilidad (de la inteligencia artificial)
https://e-revistas.uc3m.es/index.php/EUNOM/article/view/6819/5372
La Inteligencia Artificial (IA) se ha convertido en uno de los ejes centrales de las estrategias de digitalización en la Unión Europea (UE). A pesar de sus grandes beneficios este grupo de tecnologías emergentes también presenta importantes riesgos y desafíos éticos que deben abordarse. Por ello, la UE ha propuesto cuatro principios éticos fundamentales para la IA: la justicia, el respeto por la autonomía humana, la previsión del daño y la explicabilidad. El concepto central de este trabajo es la explicabilidad de la IA (XAI). De este modo, además de poner en contexto la importancia de este principio ético, se abordarán los aspectos centrales en torno al mismo: qué es la explicabilidad; por qué son importantes las explicaciones (en el ámbito de la IA); cuándo es necesario dar explicaciones y de qué tipo de explicaciones disponemos para hacer comprender a la ciudadanía las decisiones tomadas por sistema de IA.
Comentarios
Publicar un comentario