我正在尝试在Windows平台的Rstudio中设置SparkR。我已经安装了Spark,从命令提示符我可以执行Sparkr.exe。但是当我尝试在RStudio中获取Spark Context时,我收到以下错误:
sparkR.init(master =“local”)出错:之后JVM没有准备就绪 10秒
以下是我在Rstudio中遵循的步骤。请告诉我出错的地方。
if (nchar(Sys.getenv("SPARK_HOME")) < 1) {
Sys.setenv(SPARK_HOME = "C:\\Spark\\spark-1.6.1-bin-hadoop2.6")
}
.libPaths(c(file.path(Sys.getenv("SPARK_HOME"), "R", "lib"), .libPaths()))
library(SparkR, lib.loc = "C:\\Spark\\spark-1.6.1-bin-hadoop2.6\\R\\lib")
library(SparkR)
library(rJava)
library(jsonlite)
sc=sparkR.init(master="local")
答案 0 :(得分:0)
我正在分享我在RStudio中集成SparkR所遵循的程序。 首先,我假设你已经安装了spark,环境变量也在Windows中更新。
让RSR在RStudio中运行的程序
完成上述步骤后,请致电library(SparkR)
您将能够运行SparkR。
由于