我想在spark中运行我的代码,并将结果绑定到col。但是得到一个错误

时间:2019-07-19 07:53:44

标签: r apache-spark hadoop sparklyr

我的代码是:

library(Rcpp)
library(sparklyr)

sc <- spark_connect(master="local")
data_1 <- spark_read_parquet(sc, name="data_1", path= "/document/data_1.parquet")
data_2 <- spark_read_parquet(sc, name="data_2", path= "/document/data_2.parquet")

library(dplyr)
sdf_bind_cols(data_1, data_2)

错误消息是:

  

sapply(点,is.tbl_spark)中的错误:找不到对象'is.tbl_spark'`

sapply中的错误如何?

0 个答案:

没有答案