如何一次提取多篇维基百科文章?

时间:2016-05-01 16:04:00

标签: python text nlp wikipedia pywikibot

我正在使用Python 2.7 Anaconda。

我使用维基百科Python包提取文章标题列表:

titles = wikipedia.random(pages=1000).decode('utf-8')
titles_encoded = [x.encode('utf-8') for x in titles]

有没有办法使用

wikipedia.summary(title=titles_encoded,auto_suggest=True, redirect=True).encode('utf-8')

为了一次提取多篇文章?我使用了for循环,但需要很长时间:

for n in range(1,500):
    test[n] = wikipedia.summary(title=titles_encoded[n],auto_suggest=True, redirect=True).encode('utf-8')
    print(n,"text extracted")

我正在寻找更有效/更快的解决方案。

0 个答案:

没有答案