我正在尝试使用tokenizers包将列拆分为令牌,但我不断收到错误:找不到函数“ unnest_tokens”
我正在使用R 3.5.3,并且已经安装并重新安装了dplyr,tidytext,tidyverse,tokenizers,tidyr,但仍然继续收到错误。
我也退出并重新启动了R和Rstudio。
comments_tidy <- comments %>%
unnest_tokens(word, txt) %>% #Break the comments into individual words
filter(!word %in% undesirable_words) %>% #Remove undesirables
anti_join(stop_words) #Data provided by the tidytext package
接收以下信息:
Error in unnest_tokens(., word, txt) :
could not find function "unnest_tokens"
答案 0 :(得分:0)
如评论中所述,您可能希望使用library(x)
语句来扩展代码。此外,请确保已安装所有软件包及其依赖项。以下代码段将查找给定的软件包(在这种情况下为dplyr
),并在需要时安装它。
if ("dplyr" %in% installed.packages()[, "Package"]){
cat("'dplyr' is installed.")
} else {
install.packages("dplyr",dependencies=T)
}
library(dplyr)
命令installed.packages()[, "Package"])?
为您提供了所有已安装软件包的列表,这是调试所有“找不到函数foo”错误的好技巧。s