高级估算工具(例如tf.contrib.learn.DNNRegressor
)经过培训并以Python格式保存(export_savedmodel
使用serving_input_fn
)。然后从C ++(使用LoadSavedModel
)加载它以进行预测。根据{{1}},预期的输入张量为saved_model_cli
和shape: (-1)
。
我可以通过构造tensorflow :: Example对象然后将其序列化为字符串来定义这样的输入张量。但是,我想知道是否有更有效的方法呢?(也就是说,假设输入是一堆浮点数,然后构建一个对象,定义特征映射,序列化为字符串然后解析它如果这样做了数百万次,就显得很浪费了。)