如何在实施新的TensorFlow Op时保持上下文?

时间:2017-06-02 09:50:51

标签: tensorflow neural-network

当实现新的TensorFlow Op时,如果我想维护一些由前向和后向函数生成和使用的中间数据(不一定是张量),我该怎么做?

假设我需要实现一个新层,需要为层存储中间哈希表,是否有某种方法可以将它存储在TensorFlow的上下文中?我不希望将哈希表序列化为张量,并且每次从TensorFlow上下文加载时都需要花费O(n)时间来重构哈希表。

谢谢。

0 个答案:

没有答案