我有一个训练有素的keras模型,我想保存到协议缓冲区(.pb)文件中。当我这样做并加载模型时,预测是错误的(并且与原始模型不同)并且权重是错误的。这是模型类型:
type(model)
> keras.engine.training.Model
这是我用来冻结并将其保存到.pb文件的代码。
from keras import backend as K
K.set_learning_phase(0)
import tensorflow as tf
from tensorflow.python.framework.graph_util import convert_variables_to_constants
keras_session = K.get_session()
graph = keras_session.graph
graph.as_default()
keep_var_names=None
output_names=[out.op.name for out in model.outputs]
clear_devices=True
with graph.as_default():
freeze_var_names = list(set(v.op.name for v in tf.global_variables()).difference(keep_var_names or []))
output_names = output_names or []
output_names += [v.op.name for v in tf.global_variables()]
input_graph_def = graph.as_graph_def()
if clear_devices:
for node in input_graph_def.node:
node.device = ""
frozen_graph = convert_variables_to_constants(keras_session, input_graph_def,
output_names, freeze_var_names)
tf.train.write_graph(frozen_graph, "model", "my_model.pb", as_text=False)
然后我这样阅读:
pb_file = 'my_model.pb'
with tf.gfile.GFile(pb_file, "rb") as f:
graph_def = tf.GraphDef()
graph_def.ParseFromString(f.read())
with tf.Graph().as_default() as graph:
tf.import_graph_def(graph_def)
ops = graph.get_operations()
def get_outputs(feed_dict, output_tensor):
with tf.Session() as sess:
sess.graph.as_default()
tf.import_graph_def(graph_def, name='')
output_tensor_loc = sess.graph.get_tensor_by_name(output_tensor)
out = sess.run(output_tensor_loc, feed_dict=feed_dict)
print("Shape is ", out.shape)
return out
然后,当我比较第一卷积层的权重时,它们的形状相同(形状看起来正确),但权重却不同。所有权重约为0:3,而在原始模型的同一层中,权重约为-256:256。
get_outputs(feed_dict, 'conv1_relu/Relu:0')
上面的代码有什么问题吗?还是整个方法都不对?我在一个blog post中看到有人在使用tf.train.Saver
,但我没有这么做。我需要这样做吗?如果是这样,我该如何对我的keras.engine.training.Model
这样做?
答案 0 :(得分:4)
问:上面的代码有问题吗?还是整个方法都不对?
A:主要问题是tf.train.write_graph
保存TensorFlow图,但不保存模型的权重。
问:我需要使用tf.train.Saver
吗?如果是这样,我该如何对我的模型进行操作?
A:是的。除了保存图形(仅在后续脚本未显式重新创建图形时才需要),还应使用tf.train.Saver
保存模型的权重:
from keras import backend as K
# ... define your model in Keras and do some work
# Add ops to save and restore all the variables.
saver = tf.train.Saver() # setting var_list=None saves all variables
# Get TensorFlow session
sess = K.get_session()
# save the model's variables
save_path = saver.save(sess, "/tmp/model.ckpt")
调用saver.save
还会保存一个MetaGraphDef
,然后可以将其用于还原图形,因此您不必使用tf.train.write_graph
。要恢复权重,只需使用saver.restore
:
with tf.Session() as sess:
# restore variables from disk
saver.restore(sess, "/tmp/model.ckpt")
使用Keras模型的事实不会改变这种方法,只要您使用TensorFlow后端(您仍然具有TensorFlow图和权重)即可。有关在TensorFlow中保存和还原模型的更多信息,请参阅save and restore教程。
保存Keras模型的替代(更简洁)方式
现在,由于您使用的是Keras模型,因此使用model.save('model_path.h5')
保存模型并按如下所示还原模型可能更方便:
from keras.models import load_model
# restore previously saved model
model = load_model('model_path.h5')
更新:从.pb
个文件中生成单个.ckpt
文件
如果要生成单个.pb
文件,请使用以前的tf.train.Saver
方法。生成.ckpt
文件(.meta
保留图形并权重.data
)后,您可以通过调用Morgan's function {{1 }}如下:
.pb
参考:
freeze_graph
文件中生成freeze_graph('/tmp', '<Comma separated output node names>')
文件。