Explicabilidad (de la inteligencia artificial)

https://e-revistas.uc3m.es/index.php/EUNOM/article/view/6819/5372

La Inteligencia Artificial (IA) se ha convertido en uno de los ejes centrales de las estrategias de digitalización en la Unión Europea (UE). A pesar de sus grandes beneficios este grupo de tecnologías emergentes también presenta importantes riesgos y desafíos éticos que deben abordarse. Por ello, la UE ha propuesto cuatro principios éticos fundamentales para la IA: la justicia, el respeto por la  autonomía humana,  la previsión del daño  y  la  explicabilidad.  El concepto central de este trabajo es la explicabilidad de la IA (XAI). De este modo, además de poner en contexto la importancia de este principio ético, se abordarán los aspectos centrales en torno al mismo: qué es la explicabilidad; por qué son importantes las explicaciones (en el ámbito  de  la  IA);  cuándo  es  necesario  dar  explicaciones  y  de  qué  tipo  de  explicaciones disponemos para hacer comprender a la ciudadanía las decisiones tomadas por sistema de IA.

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje