为什么我感到困惑:
如果我在示例[A,B,C]上测试我的模型,它将获得一定的准确性。如果我在示例[C,B,A]上测试相同的模型,它应该获得相同的精度。换句话说,改组示例不应该改变我的模型的准确性。但这似乎发生在下面:
步骤一步:
这是我训练模型的地方:
model.fit_generator(batches, batches.nb_sample, nb_epoch=1, verbose=2,
validation_data=val_batches,
nb_val_samples=val_batches.nb_sample)
这是我测试模型的地方,没有改组验证集:
gen = ImageDataGenerator()
results = []
for _ in range(3):
val_batches = gen.flow_from_directory(path+"valid", batch_size=batch_size*2,
target_size=target_size, shuffle=False)
result = model.evaluate_generator(val_batches, val_batches.nb_sample)
results.append(result)
以下是结果(val_loss,val_acc):
[2.8174608421325682, 0.17300000002980231]
[2.8174608421325682, 0.17300000002980231]
[2.8174608421325682, 0.17300000002980231]
请注意,验证的准确性是相同的。
我在这里测试模型,使用改组验证集:
results = []
for _ in range(3):
val_batches = gen.flow_from_directory(path+"valid", batch_size=batch_size*2,
target_size=target_size, shuffle=True)
result = model.evaluate_generator(val_batches, val_batches.nb_sample)
results.append(result)
以下是结果(val_loss,val_acc):
[2.8174608802795409, 0.17299999999999999]
[2.8174608554840086, 0.1730000001192093]
[2.8174608268737793, 0.17300000059604645]
请注意,验证准确度不一致,尽管验证集未更改且模型未更改。发生了什么事?
注意:
我每次都在评估整个验证集。 model.evaluate_generator在评估模型后返回等于val_batches.nb_sample
的示例数,这是验证集中的示例数。
答案 0 :(得分:9)
这是一个非常有趣的问题。答案是因为神经网络使用的public void actionPreformed(ActionEvent e)
格式不如float32
那么准确 - 这样的波动只是实现了下溢现象。
您丢失的情况 - 您可能会注意到在小数部分的第7个十进制数字之后出现差异 - 究竟是float64
格式的精确度。所以 - 基本上 - 您可以假设您的示例中显示的所有数字在float32
表示方面都是相同的。