我在R中使用text2vec并且难以编写与text2vec包中的itoken函数一起使用的词干函数。 text2vec文档建议了这个词干功能:
stem_tokenizer1 =function(x) {
word_tokenizer(x) %>% lapply(SnowballC::wordStem(language='en'))
}
但是,此功能不起作用。这是我运行的代码(借用之前的stackoverflow答案):
library(text2vec)
library(data.table)
library(SnowballC)
data("movie_review")
train_rows = 1:1000
prepr = tolower
stem_tokenizer1 =function(x) {
word_tokenizer(x) %>% lapply(SnowballC::wordStem(language='en'))
}
tok = stem_tokenizer1
it <- itoken(movie_review$review[train_rows], prepr, tok, ids = movie_review$id[train_rows])
这是它产生的错误:
错误{:参数“字”缺少,没有默认
我认为问题是wordStem需要一个字符向量,但是word_tokenizer会产生一个字符向量列表。
mr<-movie_review$review[1]
stem_mr1<-stem_tokenizer1(mr)
SnowballC :: wordStem(language =“en”)中的错误: 参数“words”缺失,没有默认
为了解决这个问题,我编写了这个词干功能:
stem_tokenizer2 = function(x) {
list(unlist(word_tokenizer(x)) %>% SnowballC::wordStem(language='en') )
}
但是,此函数不适用于create_vocabulary函数。
data("movie_review")
train_rows = 1:1000
prepr = tolower
stem_tokenizer2 = function(x) {
list(unlist(word_tokenizer(x)) %>% SnowballC::wordStem(language='en') )
}
tok = stem_tokenizer2
it <- itoken(movie_review$review[train_rows], prepr, tok, ids = movie_review$id[train_rows])
v <- create_vocabulary(it) %>% prune_vocabulary(term_count_min = 5)
没有错误,但是当您查看文档计数时,文档数量与数据中的1000不同,因此您无法创建文档术语矩阵或运行LDA。
v$document_count
[1] 10
此代码:
dtm_train <- create_dtm(it, vectorizer)
dtm_train
产生此错误:
10 x 3809稀疏矩阵类“dgCMatrix” validObject(x)中的错误: 无效的类“dgCMatrix”对象:length(Dimnames [1])与Dim [1]不同,后者为10
我的问题是:我写的函数有什么问题,为什么我写的函数会用create_vocabulary产生这个错误?我怀疑它是我的函数输出格式的问题,但它看起来与word_tokenizer函数的输出格式相同,并且使用itoken和create_vocabulary效果很好:
mr<-movie_review$review[1]
word_mr<-word_tokenizer(mr)
stem_mr<-stem_tokenizer2(mr)
str(word_mr)
str(stem_mr)
答案 0 :(得分:5)
感谢您使用text2vec
并报告问题。
文档中有一个错误(你能指出我放这个例子的地方,所以我可以解决它吗?)。
词干标记符应该如下所示:
stem_tokenizer1 =function(x) {
word_tokenizer(x) %>% lapply( function(x) SnowballC::wordStem(x, language="en"))
}
逻辑如下:
wordStem
可以应用于字符向量)因此,在您遵循的示例中,lapply
存在语法错误。 Mb如果我们在普通R中没有%>%
运算符的情况下重写它会更清楚,所以它看起来像:
stem_tokenizer1 =function(x) {
tokens = word_tokenizer(x)
lapply(tokens, SnowballC::wordStem, language="en")
}
我还将解释为什么你要接收10个文件而不是1000个。默认情况下text2vec::itoken
将数据拆分成10个块(这可以在itoken
函数中调整)并按块处理它。
因此,当您在每个块上应用unlist
时,您实际上是递归地取消列出100个文档并创建1个字符向量。