El aprendizaje profundo no tiene por qué ser una caja negra

https://jpt.spe.org/deep-learning-doesnt-need-to-be-a-black-box
https://arxiv.org/abs/2002.01650

La percepción cultural de la IA a menudo es sospechosa debido a los desafíos de saber por qué una red neuronal profunda hace sus predicciones. Entonces, los investigadores intentan abrir esta caja negra después de que una red está capacitada para correlacionar los resultados con las entradas. Pero, ¿qué pasaría si el objetivo de la explicabilidad se pudiera diseñar en la arquitectura de la red, antes de que se entrene el modelo y sin reducir su poder predictivo? Quizás la caja podría permanecer abierta desde el principio.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social