在Windows平台中在RStudio中设置SparkR。 10秒后JVM尚未就绪

时间:2017-07-12 16:17:07

标签: r windows apache-spark rstudio sparkr

我正在尝试在Windows平台的Rstudio中设置SparkR。我已经安装了Spark,从命令提示符我可以执行Sparkr.exe。但是当我尝试在RStudio中获取Spark Context时,我收到以下错误:

  

sparkR.init(master =“local”)出错:之后JVM没有准备就绪   10秒

以下是我在Rstudio中遵循的步骤。请告诉我出错的地方。

if (nchar(Sys.getenv("SPARK_HOME")) < 1) {
  Sys.setenv(SPARK_HOME = "C:\\Spark\\spark-1.6.1-bin-hadoop2.6")
}
.libPaths(c(file.path(Sys.getenv("SPARK_HOME"), "R", "lib"), .libPaths()))
library(SparkR, lib.loc = "C:\\Spark\\spark-1.6.1-bin-hadoop2.6\\R\\lib")

library(SparkR)
library(rJava)
library(jsonlite)

sc=sparkR.init(master="local")

1 个答案:

答案 0 :(得分:0)

我正在分享我在RStudio中集成SparkR所遵循的程序。 首先,我假设你已经安装了spark,环境变量也在Windows中更新。

让RSR在RStudio中运行的程序

  1. Fisrt找到spark文件夹下的R文件夹(如C:\ spark-2.1.0-bin-hadoop2.6)
  2. 在lib文件夹下,您将获得SparkR文件夹,必须将其压缩并为其命名为SparkR。
  3. 打开RStudio ==&gt;点击工具==&gt;从Archive ==&gt;安装安装
  4. 完成上述步骤后,请致电library(SparkR) 您将能够运行SparkR。

    由于