我让demo.sh工作正常,我已经查看了parser_eval.py并在某种程度上完成了所有操作。但是,我不知道如何使用TensorFlow服务来提供此模型。我可以看到两个问题:
1)这些图没有导出的模型,图形是在每次调用时使用图形构建器(例如structured_graph_builder.py),上下文协议缓冲区以及一大堆其他内容构建的。完全理解这一点(它似乎也注册了额外的syntaxnet.ops)。所以...是否可能,我将如何将这些模型导出到"捆绑"服务和SessionBundleFactory
所需的表格?如果没有,似乎构建逻辑/步骤的图形需要在C ++中重新实现,因为Serving只能在C ++上下文中运行。
2)demo.sh实际上是两个与UNIX管道一起管道传输的模型,因此任何Servable都必须(可能)构建两个会话并将数据从一个管理到另一个。这是正确的方法吗?或者是否有可能建立一个"大"包含两种模型的图表"已修补"在一起并导出那个?
答案 0 :(得分:6)
因此经过大量的学习,研究等工作后,我最终总结了对tensorflow / models和syntaxnet的拉取请求,从而实现了从TF服务中服务Parsey McParseface的目标。
https://github.com/tensorflow/models/pull/250
这里不是真正的"服务"代码,但与解决上述问题中的问题的工作相比,这是相对微不足道的。