我通常从教程中配置sparkr
,一切正常。我能够使用read.df
读取数据库,但突然没有其他工作,并出现以下错误:
sparkR.init(master =“local”)出错:10秒后JVM没有准备好
为什么现在突然出现?我已经阅读了其他有相同问题的用户,但是给出的解决方案没有用。以下是我的代码:
Sys.setenv(SPARK_HOME= "C:/Spark")
Sys.setenv(HADOOP_HOME = "C:/Hadoop")
.libPaths(c(file.path(Sys.getenv("SPARK_HOME"), "R", "lib"), .libPaths()))
library(SparkR)
#initialeze SparkR environment
Sys.setenv('SPARKR_SUBMIT_ARGS'='"--packages" "com.databricks:spark-csv_2.11:1.2.0" "sparkr-shell"')
Sys.setenv(SPARK_MEM="4g")
#Create a spark context and a SQL context
sc <- sparkR.init(master = "local")
sqlContext <- sparkRSQL.init(sc)
答案 0 :(得分:0)
尝试执行以下操作:
检查路径中是否有c:/Windows/System32/
。
检查spark-submit.cmd
是否具有正确的执行权限。
如果上述两种情况都属实,即使它出现同样的错误,那么delete spark directory
再次按unzipping spark gzip
文件创建一个新的。
答案 1 :(得分:0)
我是R的初学者,我在我的mac中安装sparkr之前安装了JDK(版本7+),解决了同样的问题“JVM在10秒后没有准备就绪”。它现在运作良好。希望这可以帮助您解决问题。