如何在不同的语料库中训练nltk中的朴素贝叶斯分类器?

时间:2018-05-12 19:05:37

标签: python-3.x nltk sentiment-analysis textblob

我想使用textblob进行财经新闻的情绪分析。但是在使用时 find /share/CACHEDEV4_DATA/Movies -name "*.srt" ! -name "*.en.srt" -type f -exec rm -v {} \;

我是python的新手,但是根据一些参考文献,上面一行使用了在电影评论语料库中训练的预训练朴素贝叶斯分类器。 http://www.nltk.org/nltk_data/还有许多其他语料库。我觉得可能是电影评论语料库可能不适合分析财经新闻的情绪。当在不同的环境中使用时,某些词可能具有不同的极性和重量。如果我想使用路透社语料库,我该怎么办?是否有任何预训练模型已经可用或其他方式我可以使用它,因为上面的使用电影评论语料库?

如果不是,我该如何训练一次以及需要多长时间?我是python的新手,不知道需要多少时间/内存/处理能力。

0 个答案:

没有答案