El aprendizaje profundo no tiene por qué ser una caja negra
https://jpt.spe.org/deep-learning-doesnt-need-to-be-a-black-box
https://arxiv.org/abs/2002.01650
La percepción cultural de la IA a menudo es sospechosa debido a los desafíos de saber por qué una red neuronal profunda hace sus predicciones. Entonces, los investigadores intentan abrir esta caja negra después de que una red está capacitada para correlacionar los resultados con las entradas. Pero, ¿qué pasaría si el objetivo de la explicabilidad se pudiera diseñar en la arquitectura de la red, antes de que se entrene el modelo y sin reducir su poder predictivo? Quizás la caja podría permanecer abierta desde el principio.
Comentarios
Publicar un comentario