10秒后JVM尚未就绪

时间:2016-05-25 04:31:24

标签: jvm sparkr

我通常从教程中配置sparkr,一切正常。我能够使用read.df读取数据库,但突然没有其他工作,并出现以下错误:

  

sparkR.init(master =“local”)出错:10秒后JVM没有准备好

为什么现在突然出现?我已经阅读了其他有相同问题的用户,但是给出的解决方案没有用。以下是我的代码:

Sys.setenv(SPARK_HOME= "C:/Spark")
Sys.setenv(HADOOP_HOME = "C:/Hadoop")
.libPaths(c(file.path(Sys.getenv("SPARK_HOME"), "R", "lib"), .libPaths()))
library(SparkR)

#initialeze SparkR environment
Sys.setenv('SPARKR_SUBMIT_ARGS'='"--packages" "com.databricks:spark-csv_2.11:1.2.0" "sparkr-shell"')
Sys.setenv(SPARK_MEM="4g")

#Create a spark context and a SQL context
sc <- sparkR.init(master = "local")
sqlContext <- sparkRSQL.init(sc)

2 个答案:

答案 0 :(得分:0)

尝试执行以下操作:

  1. 检查路径中是否有c:/Windows/System32/

  2. 检查spark-submit.cmd是否具有正确的执行权限。

  3. 如果上述两种情况都属实,即使它出现同样的错误,那么delete spark directory再次按unzipping spark gzip文件创建一个新的。

答案 1 :(得分:0)

我是R的初学者,我在我的mac中安装sparkr之前安装了JDK(版本7+),解决了同样的问题“JVM在10秒后没有准备就绪”。它现在运作良好。希望这可以帮助您解决问题。