标签: neural-network deep-learning
我一直面临着深度神经网络不稳定的问题。例如,当使用具有完全连接的层(每层3层,每个128个存储单元)的DNN时,在不同的运行中(是,相同的训练和测试集),我的未加权精度范围为62%到66%。我将Xavier初始值设定项和bias初始值设定项设为零。其他所有参数也都是固定的。
有人遇到过这样的问题吗?我也尝试过使用固定种子,但这似乎无济于事。 Kinda对造成这种不稳定的原因感到困惑。
预先感谢:)