找不到函数“ unnest_tokens”

时间:2019-04-19 18:24:16

标签: r tidytext unnest

我正在尝试使用tokenizers包将列拆分为令牌,但我不断收到错误:找不到函数“ unnest_tokens”

我正在使用R 3.5.3,并且已经安装并重新安装了dplyr,tidytext,tidyverse,tokenizers,tidyr,但仍然继续收到错误。

我也退出并重新启动了R和Rstudio。

comments_tidy <- comments %>%
  unnest_tokens(word, txt) %>% #Break the comments into individual words
  filter(!word %in% undesirable_words) %>% #Remove undesirables
  anti_join(stop_words) #Data provided by the tidytext package

接收以下信息:

Error in unnest_tokens(., word, txt) : 
could not find function "unnest_tokens"

1 个答案:

答案 0 :(得分:0)

如评论中所述,您可能希望使用library(x)语句来扩展代码。此外,请确保已安装所有软件包及其依赖项。以下代码段将查找给定的软件包(在这种情况下为dplyr),并在需要时安装它。

if ("dplyr" %in% installed.packages()[, "Package"]){ 
  cat("'dplyr' is installed.")
} else {
  install.packages("dplyr",dependencies=T)
}
library(dplyr)

命令installed.packages()[, "Package"])?为您提供了所有已安装软件包的列表,这是调试所有“找不到函数foo”错误的好技巧。s