计算每行的单词数

时间:2019-04-16 17:07:15

标签: r apache-spark apache-spark-sql cloudera sparklyr

我正在尝试使用sparklyr将R代码移入spark,为了执行以下操作,我在使用某些功能时遇到了麻烦:

-计算一行中的单词总数:例如 word =“你好,你好吗”,字数:4 -计算第一个单词中的字符总数:例如: word =“你好,你好吗”,第一个单词的字符数:5

-计算第一个单词中的字符总数:例如: word =“你好,你好吗”,第二个单词的字符数:3

我尝试了dpylr和stringr包,但无法获得所需的东西。

我连接到Spark会话

install.packages("DBI")
install.packages("ngram")

require(DBI)
require(sparklyr)
require(dplyr)
require(stringr)
require(stringi)
require(base)
require(ngram)

# Spark Config 

config <- spark_config()
config$spark.executor.cores <- 2
config$spark.executor.memory <- "4G"

spark <- spark_connect(master = "yarn-client",version = "2.3.0",app_name = "Test", config=config)

然后我尝试使用SQL语句检索一些数据

test_query<-sdf_sql(spark,"SELECT ID, NAME  FROM table.name LIMIT 10")

NAME <- c('John Doe','Peter Gynn','Jolie Hope')
ID<-c(1,2,3)

test_query<-data.frame(NAME,ID) # ( this is the example data, here it is in R data frame, but I have on a Spark Data Frame)



当我尝试进行特征工程设计时,在最后一行出现错误

test_query<-test_query %>% 
mutate(Total_char=nchar(NAME))%>% # this works good
mutate(Name_has_numbers=str_detect(NAME,"[[:digit:]]"))%>% # Works good
mutate(Total_words=str_count(NAME, '\\w+')) # I got an error

我得到的错误消息是以下内容:错误:org.apache.spark.sql.AnalysisException:未定义的函数:'STR_COUNT'。此功能既不是注册的临时功能,也不是在数据库“默认”中注册的永久功能。

-计算一行中的单词总数:例如 word =“你好,你好吗”,字数:4 -计算第一个单词中的字符总数:例如: word =“你好,你好吗”,第一个单词的字符数:5

-计算第一个单词中的字符总数:例如: word =“你好,你好吗”,第二个单词的字符数:3

1 个答案:

答案 0 :(得分:0)

> library(tidyverse)
> test_query %>% 
      mutate(NAME = as.character(NAME),
        word_count = str_count(NAME, "\\w+"),     # Count the total number of words in a row
           N_char_first_word = nchar((gsub("(\\w+).*", "\\1", NAME)))  #Count the total number of character in the first word
                    )
        NAME ID word_count N_char_first_word
1   John Doe  1          2                 4
2 Peter Gynn  2          2                 5
3 Jolie Hope  3          2                 5