NLTK NaiveBayesClassifier培训

时间:2014-04-29 03:17:57

标签: python twitter nltk

this示例中,我一直在线跟踪,训练分类器的唯一方法是在好的和坏的推文列表上进行训练。无论如何,在单个坏词上训练相同的分类器,而不是必须有一个正面和负面推文的例子。

我觉得只用负面和正面训练就可以提供更多数据,从而获得更准确的结果。找到一个消极和积极的词汇列表与许多正面和负面推文的例子相比也容易得多。

1 个答案:

答案 0 :(得分:0)

在这种情况下,您可以使用单个单词而不是句子。

这样,它就适合你提到的例子。

pos_tweets = [('love', 'positive'),('good', 'positive')]
neg_tweets = [('hate', 'positive'),('bad', 'negative')]