测试精度波动,即使训练和测试始终相同

时间:2020-04-12 20:39:11

标签: machine-learning deep-learning nlp pytorch conv-neural-network

尽管我的培训,验证和测试集始终相同,但测试准确性却在波动。我能想到的唯一原因是重量初始化。我正在使用PyTorch,我猜他们使用了高级初始化技术(初始化初始化)。

即使训练,验证和测试数据相同,精度波动的原因可能是什么?

1 个答案:

答案 0 :(得分:1)

除了权重初始化外,各层之间的丢失还涉及随机性,这可能导致再次运行时产生不同的结果。

这些随机数通常基于种子值,对其进行固定可以帮助重现结果。您可以看看here如何确定种子值。