我试图修改YoonKim的代码sentiment analysis using CNN's.他在
上应用了heights=[3,4,5]
和width=300
的三个过滤器
input=(batch_size, 1, len(sentence_vector), len(wordVector))
我在第一次Conv,Pool
计算后陷入困境。考虑
input=(batch_size, 1, 64, 300)
64是每个句子向量的长度,300是单词嵌入大小。
map=(20, 1, 3, 300)
在他的实现中,他首先应用height = 3和width = 300的内核。因此输出将是
convolution_output=(batch_size, 20, 62, 1)
之后,他使用poolsize=(62, 1)
进行缩减采样。 MaxPooling之后的输出变为
maxpool_output=(batch_size, 20, 1, 1)
这就是我被困住的地方。
在论文中,他应用了heights[3,4,5]
和width=300
的3个过滤器。但在应用第一个滤波器后,没有任何输入可用于卷积。如何(和)应用第二个内核?。
任何帮助或建议都会很棒。 git页面包含指向该论文的链接。