在graphpipe的部署中,我使用了TensorFlow官方网站提供的训练模型。
TensorFlow模型的网址:see here
要启动服务器,请使用以下docker命令。
docker run -it --rm \
-v "/Users/sunbo/models/ml_model:/models/ml_model" \
-p 9000:9000 \
sleepsonthefloor/graphpipe-tf:cpu \
--model=/models/ml_model/1 \
--listen=0.0.0.0:9000
服务器启动成功,但无法确定输入格式
有人可以提供一个解决这个问题的好主意吗?
import mnist_input_data
from graphpipe import remote
import numpy as np
test_data_set = mnist_input_data.read_data_sets().test
image, label = test_data_set.next_batch(1)
print(image.shape)
x = np.asarray([0.9])
inputs = [x.astype(np.float32), np.array('image')]
input_names = ['Placeholder', 'tf_example']
pred = remote.execute_multi("http://0.0.0.0:9000", inputs,
input_names, None)
预期结果:
Response [200]
实际结果:
Response [400]
response.content = b'Could not parse example input, value: \'image\'\n\t [[Node: ParseExample/ParseExample = ParseExample[Ndense=1, Nsparse=0, Tdense=[DT_FLOAT], _output_shapes=[[?,784]], dense_shapes=[[784]], sparse_types=[], _device="/job:localhost/replica:0/task:0/device:CPU:0"](_arg_tf_example_0_1, ParseExample/ParseExample/names, ParseExample/ParseExample/dense_keys_0, ParseExample/Const)]]\n'