初始化sparkR时出错:10秒后JVM没有准备好

时间:2015-08-25 13:03:28

标签: r hadoop apache-spark hadoop2 sparkr

我目前正在使用sparkR测试一个应用程序。这是我的平台&申请详情:

  

平台:Windows server 2008 SparkR版本:R版本3.1.2   (2014-10-31)Spark Verion:版本1.4.1

我做了什么?

第一步:将软件包加载到R环境

  

library(SparkR) - 工作

第二步:设置系统环境变量

  

Sys.setenv(SPARK_HOME =" C:\ hdp \ spark-1.4.1-bin-hadoop2.6") -   工作.libPaths(c(file.path(Sys.getenv(" SPARK_HOME")," R",   " LIB"),. libPaths()))

第三步:创建一个Spark上下文和一个SQL上下文

  

sc< - sparkR.init(master =" local",sparkHome =   " C:\ hdp \ spark-1.4.1-bin-hadoop2.6",appName =" TestSparR")

在此行获取错误,即 JVM在10秒后未就绪

请帮我解决这个问题。 感谢。

1 个答案:

答案 0 :(得分:2)

我遇到了同样的问题,我可以告诉你我尝试了很多东西。

但最后以下内容对我有用,重新启动计算机后(顺便提一下R和RStudio)

SPARK_HOME <- "C:\\Apache\\spark-1.5.2-bin-hadoop2.6\\"
Sys.setenv('SPARKR_SUBMIT_ARGS'='"--packages" "com.databricks:spark-csv_2.10:1.2.0" "sparkr-shell"')
library(SparkR, lib.loc = "C:\\Apache\\spark-1.5.2-bin-hadoop2.6\\R\\lib")

library(SparkR)
library(rJava)

sc <- sparkR.init(master = "local", sparkHome = SPARK_HOME)

也许这可以提供帮助:重新启动系统后,这包含在我的环境变量PATH中:

<强> C:\ ProgramData \甲骨文\爪哇\ javapath