我使用原生和后端张量流创建了完全相同的网络,但经过使用多个不同参数的多个小时的测试后,仍然无法弄清楚为什么keras优于原生张量流并产生更好(稍微但更好)的结果。
Keras是否实施了不同的权重初始化方法?或者执行除tf.train.inverse_time_decay以外的不同的减重方法?
P.S。分数差异总是像
Keras with Tensorflow: ~0.9850 - 0.9885 - ~45 sec. avg. training time for 1 epoch
Tensorflow Native ~0.9780 - 0.9830 - ~23 sec.
我的环境是:
Python 3.5.2 -Anaconda / Windows 10
CUDA:8.0与cuDNN 5.1
Keras 1.2.1
Tensorflow 0.12.1
Nvidia Geforce GTX 860M
和 keras.json 文件:
{
"image_dim_ordering": "tf",
"epsilon": 1e-07,
"floatx": "float32",
"backend": "tensorflow"
}
您还可以复制并执行以下两个文件
https://github.com/emrahyigit/deep/blob/master/keras_cnn_mnist.py
https://github.com/emrahyigit/deep/blob/master/tf_cnn_mnist.py
https://github.com/emrahyigit/deep/blob/master/mnist.py
答案 0 :(得分:4)
问题是由于不正确使用了dropout图层的keep_prob参数,因为我应该在列车和测试过程中为此参数提供不同的值。