我正在使用tm
和wordcloud
在R中执行一些基本的文本挖掘。正在处理的文本包含许多像asfdg,aawptkr一样无意义的单词,我需要过滤这些单词。
我找到的最接近的解决方案是使用library(qdapDictionaries)
并构建自定义函数来检查单词的有效性。
library(qdapDictionaries)
is.word <- function(x) x %in% GradyAugmented
# example
> is.word("aapg")
[1] FALSE
使用的其余文本挖掘是:
curDir <- "E:/folder1/" # folder1 contains a.txt, b.txt
myCorpus <- VCorpus(DirSource(curDir))
myCorpus <- tm_map(myCorpus, removePunctuation)
myCorpus <- tm_map(myCorpus, removeNumbers)
myCorpus <- tm_map(myCorpus,foo) # foo clears meaningless words from corpus
问题是is.word()
适用于处理数据框架,但如何将其用于语料库处理?
谢谢
答案 0 :(得分:4)
如果您愿意尝试使用其他文本挖掘包,那么这将有效:
library(readtext)
library(quanteda)
myCorpus <- corpus(readtext("E:/folder1/*.txt"))
# tokenize the corpus
myTokens <- tokens(myCorpus, remove_punct = TRUE, remove_numbers = TRUE)
# keep only the tokens found in an English dictionary
myTokens <- tokens_select(myTokens, names(data_int_syllables))
从那里你可以在文档术语矩阵(在quanteda中称为“dfm”)进行分析,它只包含在字典中匹配的英语术语(包含大约130,000个单词)
答案 1 :(得分:2)
不确定它是否是资源效率最高的方法(我不太了解包装)但它应该有效:
tdm <- TermDocumentMatrix(myCorpus )
all_tokens <- findFreqTerms(tdm, 1)
tokens_to_remove <- setdiff(all_tokens,GradyAugmented)
corpus <- tm_map(corpus, content_transformer(removeWords),
tokens_to_remove)