从R语料库中删除停用词太慢了

时间:2018-06-01 02:36:09

标签: r text analytics corpus text-analysis

我已经加载了我的语料库,其中包含16个文本文件,但是从该语料库中删除停用词需要大约2个小时。 语料库的总大小为31Mb。 你知道我怎么解决这个问题?

multidocMBTI <- Corpus(DirSource("F:/my master course/Principle of analytics/DATA03"))
multidocMBTI <- tm_map(multidocMBTI, removeWords, stopwords("english"))

0 个答案:

没有答案