tensorFlow服务批量配置无效

时间:2019-02-25 02:14:27

标签: tensorflow-serving

docker run命令

docker run -t --rm -p 8500:8500 -p 8501:8501 
-v /home/zhi.wang/tensorflow-serving/model:/models 
-e MODEL_NAME=beidian_cart_ctr_wdl_model tensorflow/serving:1.12.0 
--enable_batching=true --batching_parameters_file=/models/batching_parameters.txt &

batching_parameters.txt

num_batch_threads { value: 40 }
batch_timeout_micros { value: 5000}
max_batch_size {value: 20000000}

服务器配置

40 cpu和64G内存

测试结果

1个线程预测成本30ms
40个线程预测一个预测成本300ms

CPU使用率

泊坞窗中的cpu使用率最多只能达到300%,而主机的cpu使用率很低

java测试脚本

TensorProto.Builder tensor = TensorProto.newBuilder();

tensor.setTensorShape(shapeProto);

tensor.setDtype(DataType.DT_STRING);
// batch set 200 
for (int i=0; i<200; i++) {
    tensor.addStringVal(example.toByteString());
}

1 个答案:

答案 0 :(得分:0)

我也面临同样的问题,我发现这可能是网络io问题,您可以使用dstat监视您的网络接口。

我发现example.toByteString()也花费很多时间