我不能在Rstudio中使用sparkR,因为我得到了一些错误:sparkR.sparkContext中的错误(master,appName,sparkHome,sparkConfigMap,:
10秒后JVM还没有准备好
我试图搜索解决方案但无法找到解决方案。以下是我尝试设置sparkR的方法:
Sys.setenv(SPARK_HOME="C/Users/alibaba555/Downloads/spark") # The path to your spark installation
.libPaths(c(file.path(Sys.getenv("SPARK_HOME"), "R", "lib"), .libPaths()))
library("SparkR", lib.loc="C/Users/alibaba555/Downloads/spark/R") # The path to the lib folder in the spark location
library(SparkR)
sparkR.session(master="local[*]",sparkConfig=list(spark.driver.memory="2g")*
现在执行start并留言:
使用spark-submit命令启动java C /用户/ alibaba555 /下载/火花/斌/火花submit2.cmd
sparkr壳 C:\ Users \用户ALIBAB〜1个\应用程序数据\本地\ TEMP \ Rtmp00FFkx \ backend_port1b90491e4622
最后几分钟后,它会返回一条错误消息:
sparkR.sparkContext(master,appName,sparkHome, sparkConfigMap,:10秒后JVM没有准备好
谢谢!
答案 0 :(得分:1)
什么似乎是导致我的问题归结为网络映射驱动器用户的工作目录。
更改工作目录解决了该问题。
如果您还偶然使用了databricks-connect,请确保将.databricks-connect文件复制到将要运行Rstudio或为每个用户设置databricks-connect的每个用户的%HOME%中。
答案 1 :(得分:0)
看起来你的火花库的路径是错误的。它应该是:library("SparkR", lib.loc="C/Users/alibaba555/Downloads/spark/R/lib")
我不确定这是否能解决您的问题,但它可能有所帮助。另外,您使用的是Spark / SparkR和Scala的哪些版本?你是从源码构建的吗?