无法在Rstudio中运行SparkR

时间:2016-09-02 10:03:46

标签: sparkr

我不能在Rstudio中使用sparkR,因为我得到了一些错误:sparkR.sparkContext中的错误(master,appName,sparkHome,sparkConfigMap,:

  

10秒后JVM还没有准备好

我试图搜索解决方案但无法找到解决方案。以下是我尝试设置sparkR的方法:

Sys.setenv(SPARK_HOME="C/Users/alibaba555/Downloads/spark")  # The path to your spark installation 

.libPaths(c(file.path(Sys.getenv("SPARK_HOME"), "R", "lib"), .libPaths())) 

library("SparkR", lib.loc="C/Users/alibaba555/Downloads/spark/R") # The path to the lib folder in the spark location 

library(SparkR) 

sparkR.session(master="local[*]",sparkConfig=list(spark.driver.memory="2g")*

现在执行start并留言:

  

使用spark-submit命令启动java   C /用户/ alibaba555 /下载/火花/斌/火花submit2.cmd
  sparkr壳   C:\ Users \用户ALIBAB〜1个\应用程序数据\本地\ TEMP \ Rtmp00FFkx \ backend_port1b90491e4622

最后几分钟后,它会返回一条错误消息:

  

sparkR.sparkContext(master,appName,sparkHome,   sparkConfigMap,:10秒后JVM没有准备好

谢谢!

2 个答案:

答案 0 :(得分:1)

什么似乎是导致我的问题归结为网络映射驱动器用户的工作目录。

更改工作目录解决了该问题。

如果您还偶然使用了databricks-connect,请确保将.databricks-connect文件复制到将要运行Rstudio或为每个用户设置databricks-connect的每个用户的%HOME%中。

答案 1 :(得分:0)

看起来你的火花库的路径是错误的。它应该是:library("SparkR", lib.loc="C/Users/alibaba555/Downloads/spark/R/lib")

我不确定这是否能解决您的问题,但它可能有所帮助。另外,您使用的是Spark / SparkR和Scala的哪些版本?你是从源码构建的吗?