我目前正在从事AI项目,玩扑克。 我目前的模型正在训练中,可以根据河流和其他玩家的数量来预测玩家的纸牌结果。
到目前为止,该模型运行良好,因为它正在解决一个不完整的信息问题,但是张量板为我带来了一些麻烦。
首先: 我的测试准确性(灰色)通常比训练准确性c(绿色)高得多。同时测试损失低于训练损失:
这是张量板中的错误吗?或如何解释?
大多数模型都是这种情况,但并非所有模型都如此。有一个模型对我来说看起来更普通(蓝色=验证):
Model.Fit看起来像这样。对我来说看起来很标准,控制台中的输出也可以。
model.fit(trainSet,
epochs=epochs,
steps_per_epoch=trainSteps,
shuffle = True,
validation_data = testSet,
validation_steps = 20,
validation_freq=5,
verbose = verbose,
callbacks=[tensorboard])
那么,当测试值始终比训练值更好时又意味着什么呢?
这些来自不完整的信息,可以通过增加批大小来消除。 我当前的批量大小是32。 一些消息来源表明小批量很糟糕,另一些消息则表明大批量很糟糕。
您是否知道一个接一个的结果(例如minibatch =学习速度更快,batchbatch =更好的概括性)?