标签: nlp word-embedding machine-translation attention-model
在论文Go Playground中,为什么没有使用诸如Glove或word2vec之类的词嵌入?
我了解这是2014年的论文,但是该论文在github上的当前实现也不使用任何单词嵌入?
要尝试对纸张进行编码,是否使用单词嵌入是合理的?