我加载了一个已保存的h5模型,并希望将该模型另存为pb。
该模型是在训练期间使用tf.keras.callbacks.ModelCheckpoint
回调函数保存的。
TF版本:2.0.0a
编辑:2.0.0-beta1
我保存铅的步骤:
K.set_learning_phase(0)
tf.keras.models.load_model
加载模型freeze_session()
函数。freeze_session()
函数与tf.keras.backend.get_session
一起使用错误,无论是否编译,我都会得到该错误:
AttributeError:模块'tensorflow.python.keras.api._v2.keras.backend' 没有属性“ get_session”
我的问题:
TF2不再有get_session
吗?
(我知道tf.contrib.saved_model.save_keras_model
不再存在,并且我也尝试了tf.saved_model.save
确实没有用)
或者get_session
仅在我实际训练模型并且仅加载h5不起作用时才起作用
编辑:另外,通过重新培训的课程,没有get_session可用。
谢谢您的帮助
答案 0 :(得分:1)
我想知道同一件事,因为我试图使用get_session()和set_session()释放GPU内存。这些功能似乎丢失了,aren't in the TF2.0 Keras documentation。我想这与Tensorflow切换到急切执行有关,因为不再需要直接会话访问。
答案 1 :(得分:1)
我确实将模型从pb
模型保存到h5
:
import logging
import tensorflow as tf
from tensorflow.compat.v1 import graph_util
from tensorflow.python.keras import backend as K
from tensorflow import keras
# necessary !!!
tf.compat.v1.disable_eager_execution()
h5_path = '/path/to/model.h5'
model = keras.models.load_model(h5_path)
model.summary()
# save pb
with K.get_session() as sess:
output_names = [out.op.name for out in model.outputs]
input_graph_def = sess.graph.as_graph_def()
for node in input_graph_def.node:
node.device = ""
graph = graph_util.remove_training_nodes(input_graph_def)
graph_frozen = graph_util.convert_variables_to_constants(sess, graph, output_names)
tf.io.write_graph(graph_frozen, '/path/to/pb/model.pb', as_text=False)
logging.info("save pb successfully!")
我使用TF2转换模型,例如:
keras.callbacks.ModelCheckpoint(save_weights_only=True)
传递到model.fit
并保存checkpoint
; self.model.load_weights(self.checkpoint_path)
加载checkpoint
; self.model.save(h5_path, overwrite=True, include_optimizer=False)
另存为h5
; h5
转换为pb
; 答案 2 :(得分:1)
使用
from tensorflow.compat.v1.keras.backend import get_session
在keras 2和tensorflow 2.2中
然后打电话
import logging
import tensorflow as tf
from tensorflow.compat.v1 import graph_util
from tensorflow.python.keras import backend as K
from tensorflow import keras
from tensorflow.compat.v1.keras.backend import get_session
# necessary !!!
tf.compat.v1.disable_eager_execution()
h5_path = '/path/to/model.h5'
model = keras.models.load_model(h5_path)
model.summary()
# save pb
with get_session() as sess:
output_names = [out.op.name for out in model.outputs]
input_graph_def = sess.graph.as_graph_def()
for node in input_graph_def.node:
node.device = ""
graph = graph_util.remove_training_nodes(input_graph_def)
graph_frozen = graph_util.convert_variables_to_constants(sess, graph, output_names)
tf.io.write_graph(graph_frozen, '/path/to/pb/model.pb', as_text=False)
logging.info("save pb successfully!")