Stanford-NLP德语依赖解析不能正常工作

时间:2016-08-24 20:49:27

标签: stanford-nlp

我最近发现(阅读下面的问题)我可以使用NNDependencyParser与Stanford解析器获得德语依赖关系。

Dependencies are null with the German Parser from Stanford CoreNLP

我的问题是,我解析的依赖关系始终只是句子中相邻的单词,没有真正的树结构。解析“Die Sonne scheint am Himmel。”即使使用折叠的依赖项,也会让我成对(“Die”,“Sonne”),(“sonne”,“scheint”),(“scheint”,“am”)等作为依赖项。

    String modelPath = "edu/stanford/nlp/models/parser/nndep/UD_German.gz";
    String taggerPath = "edu/stanford/nlp/models/pos-tagger/german/german-hgc.tagger";
    String text = "Ich sehe den Mann mit dem Fernglas.";

    MaxentTagger tagger = new MaxentTagger(taggerPath);
    DependencyParser parser = DependencyParser.loadFromModelFile(modelPath);

    DocumentPreprocessor tokenizer = new DocumentPreprocessor(new StringReader(text));
    for (List<HasWord> sentence : tokenizer) {
      List<TaggedWord> tagged = tagger.tagSentence(sentence);

      GrammaticalStructure gs = parser.predict(tagged);

      for (TypedDependency td : gs.typedDependenciesCollapsed()) {
         System.out.println(td.toString());
     }

1 个答案:

答案 0 :(得分:0)

是的,我们的德语依赖解析模型目前已被打破(不知何故法国模型被包含在发布中,我们目前似乎没有一个可行的德国模型)。

但是,您可以使用Universal Dependencies project中的数据训练自己的模型。您可以在project page上找到有关如何训练解析器的一些信息。