标签: tensorflow lstm attention-model
我正在实现一种注意机制,该机制使用LSTM单元作为编码器,其中LSTM不接受/没有任何输入(仅是隐藏状态)。如何在TensorFlow中指定没有输入的LSTM?
本质上,隐藏状态将与LSTM单元的“入口点”处的空输入并置。
谢谢!
编辑:我在Attention mechanism with an LSTM which takes no input上问过的相关问题