标签: tensorflow neural-network
当实现新的TensorFlow Op时,如果我想维护一些由前向和后向函数生成和使用的中间数据(不一定是张量),我该怎么做?
假设我需要实现一个新层,需要为层存储中间哈希表,是否有某种方法可以将它存储在TensorFlow的上下文中?我不希望将哈希表序列化为张量,并且每次从TensorFlow上下文加载时都需要花费O(n)时间来重构哈希表。
谢谢。