Stanford Dependency Parser - 如何获得短语向量?

时间:2016-05-22 01:16:58

标签: nlp stanford-nlp deep-learning recurrent-neural-network

DependencyParser.java repository中,我可以看到它使用递归神经网络。 在开放式讲座(http://cs224d.stanford.edu)中,我了解到这些网络在解析树的每个节点上计算短语向量。

我正在尝试让Parser输出短语向量,以便我可以在2-d平面上绘制它们,但到目前为止我还没有想出来。 - 有人可以指出我们计算它们的java对象和行号吗? (我怀疑他们会在第765行〜)

 private void setupClassifierForTraining(List<CoreMap> trainSents, List<DependencyTree> trainTrees, String embedFile, String preModel) {
    double[][] E = new double[knownWords.size() + knownPos.size() + knownLabels.size()][config.embeddingSize];
    double[][] W1 = new double[config.hiddenSize][config.embeddingSize * config.numTokens];
    double[] b1 = new double[config.hiddenSize];
    double[][] W2 = new double[system.numTransitions()][config.hiddenSize];

如果这不是寻找短语向量的正确位置,如果你能指出我应该看的CoreNLP project中的代码,我真的很感激。

1 个答案:

答案 0 :(得分:2)

你指的是哪个讲座?

本文描述了我们分发的神经网络依赖解析器:

http://cs.stanford.edu/people/danqi/papers/emnlp2014.pdf

我不相信它会创建短语嵌入;它为单词,词性标签和依赖标签创建嵌入。