El aprendizaje profundo no tiene por qué ser una caja negra

https://jpt.spe.org/deep-learning-doesnt-need-to-be-a-black-box
https://arxiv.org/abs/2002.01650

La percepción cultural de la IA a menudo es sospechosa debido a los desafíos de saber por qué una red neuronal profunda hace sus predicciones. Entonces, los investigadores intentan abrir esta caja negra después de que una red está capacitada para correlacionar los resultados con las entradas. Pero, ¿qué pasaría si el objetivo de la explicabilidad se pudiera diseñar en la arquitectura de la red, antes de que se entrene el modelo y sin reducir su poder predictivo? Quizás la caja podría permanecer abierta desde el principio.

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje