语料库中的单词数量

时间:2012-11-26 22:34:50

标签: r text-mining

我正在寻找一种方法来查找文本中最常用的单词,而我正在使用R. 最常见的是,我的意思是它们的低频率是语料库中单词的1%。所以我需要计算语料库中的单词数量。

到目前为止,这是我的代码:

#!/usr/bin/Rscript
library('tm')
library('wordcloud')
library('RColorBrewer')
twittercorpus <- system.file("stream","~/txt", package = "tm")
twittercorpus <- Corpus(DirSource("~/txt"),
                        readerControl=list(languageEl = "en"))
twittercorpus <- tm_map(twittercorpus, removeNumbers)
twittercorpus <- tm_map(twittercorpus,tolower)
twittercorpus <- tm_map(twittercorpus,removePunctuation)
my_stopwords <- c(stopwords("SMART"))
twittercorpus <-tm_map(twittercorpus,removeWords,my_stopwords)
mydata.dtm <- TermDocumentMatrix(twittercorpus)

我需要类似的东西:

freqmatrix <-findFreqTerms(mydata.dtm, lowfreq=rowSums(mydata.dtm)/100)

1 个答案:

答案 0 :(得分:7)

如果你看str(mydata.dtm),就会有一个名为nrow的命名组件。使用:

freqmatrix <- findFreqTerms(mydata.dtm, lowfreq=mydata.dtm$nrow/100)