如何编写包含持久性C ++对象的Tensorflow自定义操作?

时间:2019-05-30 00:53:34

标签: python tensorflow nlp tensorflow-serving openfst

我正在开发一个Tensorflow序列模型,该模型在通过Tensorflow序列模型输出的logit上使用通过OpenFST解码图(从二进制文件加载)进行波束搜索。

我编写了一个自定义操作,使我可以对logit进行解码,但是每次执行解码之前,我都会调用op调用fst :: Read(BINARY_FILE)。只要它很小就可以了,但我想避免I / O开销。

我已经阅读了Tensorflow自定义操作并试图找到类似的示例,但我仍然迷失了方向。基本上,我想在图中做的是:

FstDecodingOp.Initialize('BINARY_FILE.bin') #loads the BINARY_FILE.bin into memory
...
for o in output:
    FstDecodingOp.decode(o) # uses BINARY_FILE.bin to decode

在tensorflow图之外的Python中,这当然很简单,但是我最终需要将其移至原始TF-Serving环境中,因此需要将其冻结到导出图中。有人遇到过类似的问题吗?

解决方案:

没有意识到您可以使用“ OpKernel(context)”设置私有属性。只是使用该函数对其进行了初始化。

编辑:有关如何执行此操作的更多详细信息。尚未尝试投放。

REGISTER_OP("FstDecoder")
    .Input("log_likelihoods: float")
    .Attr("fst_decoder_path: string")
    ....

...

template <typename Device, typename T>
class FstDecoderOp : public OpKernel {

private:
   fst::Fst<fst::StdArc>* fst_;
   float beam_;

public:
  explicit FstDecoderOp(OpKernelConstruction* context) : OpKernel(context) {
    OP_REQUIRES_OK(context, context->GetAttr("beam", &beam_));

    std::string fst_path;
    OP_REQUIRES_OK(context, context->GetAttr("fst_decoder_path", &fst_path));

    fst_ = fst::Fst<fst::StdArc>::Read(fst_path);
  }

  void Compute(OpKernelContext* context) override {
    // do some compute 
    const Tensor* log_likelihoods;

    OP_REQUIRES_OK(context, context->input("log_likelihoods", 
     &log_likelihoods));

    // simplified 
    compute_op(_fst, log_likelihoods);

  }
};

在python中:


sess = tf.Session()
mat = tf.placeholder(tf.float32, shape=test_npy.shape)
res_ = decoder_op.fst_decoder(beam=30, fst_decoder_path="decoder_path.fst", log_likelihoods=mat)
res = sess.run(res_, {mat : test_npy} )

1 个答案:

答案 0 :(得分:1)

解决方案:

没有意识到您可以使用“ OpKernel(context)”设置私有属性。只是使用该函数对其进行了初始化。

编辑:有关如何执行此操作的更多详细信息。尚未尝试投放。

ggarrange

在python中:

common.legend = T