如何将Sparkr Dataframe调用为R代码?

时间:2017-10-27 06:43:48

标签: r spark-dataframe

我在Apache服务器上的SparkR中创建了一个数据框。我需要在R代码中调用它来处理数据并从中提取特征。有人能告诉我如何将SparkR df读入R?

SparkR df:

sqlContext <- sparkRSQL.init(sparkR.session)
myframe <- filter(read.df(sqlContext, source = "org.apache.spark.sql.cassandra", keyspace = "abcd", table = "table1")

在R中调用df:

rawdata <- as.data.frame(myframe) 

1 个答案:

答案 0 :(得分:1)

使用SparkR中的collect功能。

 r.data.frame<- collect(myframe)