标签: r text analytics corpus text-analysis
我已经加载了我的语料库,其中包含16个文本文件,但是从该语料库中删除停用词需要大约2个小时。 语料库的总大小为31Mb。 你知道我怎么解决这个问题?
multidocMBTI <- Corpus(DirSource("F:/my master course/Principle of analytics/DATA03")) multidocMBTI <- tm_map(multidocMBTI, removeWords, stopwords("english"))