在Python上使用NLTK的Stanford Dependency Parser非常慢

时间:2016-10-09 11:12:58

标签: python-2.7 nltk stanford-nlp dependency-parsing

path_to_jar = path + 'stanford-parser-full-2015-12-09/stanford-parser.jar'
path_to_models_jar = path + 'stanford-parser-full-2015-12-09/stanford-parser-3.6.0-models.jar'
sentence='This is a nice phone 4 me'

print 'Loading module'
start= time.time()
dependency_parser = StanfordDependencyParser(path_to_jar=path_to_jar, path_to_models_jar=path_to_models_jar)
print time.time()-start

start=time.time()
result = dependency_parser.raw_parse((sentence))
print result
print time.time()-start

我一直致力于使用Stanford和NLTK进行依赖性解析。我面临的问题是执行时间。以下是上述代码的输出

Loading module
0.0047550201416
<listiterator object at 0x10bbcbb10>
3.65611600876

每个句子/文本大约需要4秒。在java中,使用静态变量加载模块,其超快速。有什么建议?如果没有错误发生,按照这个速度我需要100个小时的训练!

0 个答案:

没有答案