当尝试将Keras模型导出为TensorFlow Estimator以便服务模型时遇到以下问题。由于同样的问题也弹出in an answer to this question,因此,我将说明玩具示例中发生的情况,并提供用于文档目的的解决方法。 Tensorflow 1.12.0和Keras 2.2.4会发生此行为。实际的Keras以及tf.keras
都会发生这种情况。
尝试导出使用tf.keras.estimator.model_to_estimator
从Keras模型创建的Estimator时出现问题。调用estimator.export_savedmodel
时,将抛出NotFoundError
或ValueError
。
以下代码将其复制为一个玩具示例。
创建Keras模型并保存:
import keras
model = keras.Sequential()
model.add(keras.layers.Dense(units=1,
activation='sigmoid',
input_shape=(10, )))
model.compile(loss='binary_crossentropy', optimizer='sgd')
model.save('./model.h5')
接下来,使用tf.keras.estimator.model_to_estimator
将模型转换为估计量,添加输入接收器函数,并使用Savedmodel
以estimator.export_savedmodel
格式将其导出:
# Convert keras model to TF estimator
tf_files_path = './tf'
estimator =\
tf.keras.estimator.model_to_estimator(keras_model=model,
model_dir=tf_files_path)
def serving_input_receiver_fn():
return tf.estimator.export.build_raw_serving_input_receiver_fn(
{model.input_names[0]: tf.placeholder(tf.float32, shape=[None, 10])})
# Export the estimator
export_path = './export'
estimator.export_savedmodel(
export_path,
serving_input_receiver_fn=serving_input_receiver_fn())
这将抛出:
ValueError: Couldn't find trained model at ./tf.
答案 0 :(得分:0)
我的解决方法如下。检查./tf
文件夹可以清楚地看到,对model_to_estimator
的调用将必要的文件存储在keras
子文件夹中,而export_model
则希望这些文件位于./tf
中文件夹,因为这是我们为model_dir
参数指定的路径:
$ tree ./tf
./tf
└── keras
├── checkpoint
├── keras_model.ckpt.data-00000-of-00001
├── keras_model.ckpt.index
└── keras_model.ckpt.meta
1 directory, 4 files
简单的解决方法是将这些文件上移一个文件夹。这可以使用Python完成:
import os
import shutil
from pathlib import Path
def up_one_dir(path):
"""Move all files in path up one folder, and delete the empty folder
"""
parent_dir = str(Path(path).parents[0])
for f in os.listdir(path):
shutil.move(os.path.join(path, f), parent_dir)
shutil.rmtree(path)
up_one_dir('./tf/keras')
这将使model_dir
目录看起来像这样:
$ tree ./tf
./tf
├── checkpoint
├── keras_model.ckpt.data-00000-of-00001
├── keras_model.ckpt.index
└── keras_model.ckpt.meta
0 directories, 4 files
在model_to_estimator
和export_savedmodel
调用之间进行此操作可以根据需要导出模型:
export_path = './export'
estimator.export_savedmodel(
export_path,
serving_input_receiver_fn=serving_input_receiver_fn())
INFO:tensorflow:SavedModel写入: ./export/temp-b'1549796240'/saved_model.pb