测试结果始终优于Tensorboard中的训练结果

时间:2019-07-29 17:44:47

标签: tensorboard

我目前正在从事AI项目,玩扑克。 我目前的模型正在训练中,可以根据河流和其他玩家的数量来预测玩家的纸牌结果。

到目前为止,该模型运行良好,因为它正在解决一个不完整的信息问题,但是张量板为我带来了一些麻烦。

首先: 我的测试准确性(灰色)通常比训练准确性c(绿色)高得多。同时测试损失低于训练损失: validation better than test?

这是张量板中的错误吗?或如何解释?

大多数模型都是这种情况,但并非所有模型都如此。有一个模型对我来说看起来更普通(蓝色=验证): enter image description here

Model.Fit看起来像这样。对我来说看起来很标准,控制台中的输出也可以。

model.fit(trainSet, 
          epochs=epochs, 
          steps_per_epoch=trainSteps, 
          shuffle = True, 
          validation_data = testSet, 
          validation_steps = 20, 
          validation_freq=5,
          verbose = verbose, 
          callbacks=[tensorboard])

那么,当测试值始终比训练值更好时又意味着什么呢?

我还要指出尖峰曲线。 enter image description here

这些来自不完整的信息,可以通过增加批大小来消除。 我当前的批量大小是32。 一些消息来源表明小批量很糟糕,另一些消息则表明大批量很糟糕。

您是否知道一个接一个的结果(例如minibatch =学习速度更快,batchbatch =更好的概括性)?

0 个答案:

没有答案