我目前正在使用Tensorflow Seq2seq模型,尝试实施情绪分析。我的想法是用IMDB注释为编码器提供信息,用[Pad]或[Go]提供解码器,用[neg] / [pos]提供目标。我的大多数代码都与seq2seq翻译的例子非常相似。但我得到的结果很奇怪。对于每个批次,结果要么全部为[neg],要么全部为[pos]。
"编码器输入:我几乎立刻就被迷住了。[pad] [pad] [pad]"
"解码器输入:[pad]"
"目标:[pos]"
由于这个结果非常特别,我想知道是否有人知道什么会导致这种事情?
答案 0 :(得分:3)
我建议尝试使用更简单的架构 - RNN或CNN编码器,将其输入逻辑分类器。这种架构在情绪分析(亚马逊评论,评论等)方面表现出非常好的效果。
对于此类模型的示例,您可以see here - 单词和字符上的各种编码器(LSTM或Convolution)。