不同运行中FC-DNN的精度差异

时间:2018-11-10 10:06:19

标签: neural-network deep-learning

我一直面临着深度神经网络不稳定的问题。例如,当使用具有完全连接的层(每层3层,每个128个存储单元)的DNN时,在不同的运行中(是,相同的训练和测试集),我的未加权精度范围为62%到66%。我将Xavier初始值设定项和bias初始值设定项设为零。其他所有参数也都是固定的。

有人遇到过这样的问题吗?我也尝试过使用固定种子,但这似乎无济于事。 Kinda对造成这种不稳定的原因感到困惑。

预先感谢:)

0 个答案:

没有答案