无法在RStudio

时间:2015-06-29 15:05:43

标签: r windows apache-spark rstudio sparkr

经过漫长而艰难的SparkR安装过程后,我遇到了启动SparkR的新问题。

我的设置

R 3.2.0    
RStudio 0.98.1103    
Rtools 3.3    
Spark 1.4.0
Java Version 8
SparkR 1.4.0
Windows 7 SP 1  64 Bit

现在我尝试在R中使用以下代码:

library(devtools)
library(SparkR)
Sys.setenv(SPARK_MEM="1g")
Sys.setenv(SPARK_HOME="C:/spark-1.4.0")
sc <- sparkR.init(master="local")

我收到了以下信息:

JVM is not ready after 10 seconds

我还试图添加一些系统变量,如spark path或java path。

您对我有什么建议来解决这些问题。

测试本地主机后,我的下一步是在我正在运行的hadoop集群上开始测试。

7 个答案:

答案 0 :(得分:5)

我认为这是一个现在已经解决的错误。 请尝试以下方法,

Sys.setenv(SPARK_HOME="C:\\spark-1.4.0")

.libPaths(c(file.path(Sys.getenv("SPARK_HOME"), "R", "lib"), .libPaths()))

library("SparkR", lib.loc="C:\\spark-1.4.0\\lib") # The use of \\ is for windows environment.

library(SparkR)

sc=sparkR.init(master="local")

使用spark-submit命令C:\spark-1.4.0/bin/spark-submit.cmd sparkr-shell

启动java

C:\Users\Ashish\AppData\Local\Temp\RtmpWqFsOB\backend_portbdc329477c6

希望这会有所帮助。

答案 1 :(得分:2)

我遇到了同样的问题,我的spark-submit.cmd文件也没有从命令行执行。以下步骤为我工作

转到您的环境变量并在系统变量中选择变量名称PATH。与其他值一起添加由分号分隔的c:/Windows/System32/。这使我的spark-submit.cmd从命令行运行,最终从Rstudio运行。

我已经意识到只有在未指定所有必需的路径值时才会出现上述问题。确保在环境变量中指定所有路径值(R,Rtools)。例如,我的Rtools路径为c:\Rtools\bin;c:\Rtools\gcc-4.6.3\bin

我希望这会有所帮助。

答案 2 :(得分:1)

这对我不起作用。如果有人遇到同样的问题,请尝试向c:/sparkpath/bin/spark-submit.cmd授予执行权限。

答案 3 :(得分:0)

我有完全相同的问题。我可以在命令行中启动SparkR,但不能在Windows中的RStudio中启动。这里的解决方案对我有用。

  1. 清理您尝试解决此问题时设置的所有路径。这包括您从窗口控制面板在Windows环境中设置的路径,并使用Sys.unsetenv()取消设置SPARK_HOME。

  2. 使用RStudio中的getwd()查找您的RStudio默认工作目录。然后在此目录中创建.Rprofile文件。将以下行放在此文件中: .libPaths( “C:/Apache/Spark-1.5.1/R/lib”)

  3. 在窗口控制面板中 - &gt;系统 - &gt;高级系统设置 - &gt;环境变量,在您现有的PATH末尾添加“; C:\ Apache \ Spark-1.5.1 \ bin”变量

  4. 启动RStudio,如果键入.libPaths(),则可以看到SparkR库路径已经在库路径中

  5. 使用库(SparkR)加载SparkR库

  6. SC = sparkR.init(主= “本地”)

  7. 我在Spark 1.4.1和1.5.1上都试过这个,它们都运行良好。我希望这可以帮助那些在上述所有建议之后仍有问题的人。

答案 4 :(得分:0)

我有类似的问题。在我的情况下,问题是连字符(' - ') 通过更改代码:

sc <- sparkR.init(master = "local[*]",sparkPackages = c("com.databricks:spark-csv_2.11-1.4.0"))

为:

sc <- sparkR.init(master = "local[*]",sparkPackages = c("com.databricks:spark-csv_2.11:1.4.0"))

为我工作。你注意到了这个变化吗?

P.S。:复制你的SPARK_HOME \ lib文件夹中的jar

编辑1:另外,检查您是否配置了“HADOOP_HOME”

希望这会有所帮助。

答案 5 :(得分:0)

以下解决方案适用于Mac OS。

安装Hadoop后跟Spark。

ind

答案 6 :(得分:0)

我也有这个错误,来自不同的原因。在引擎盖下,Spark调用

system2(sparkSubmitBin, combinedArgs, wait = F)

有很多方法可能会出错。在我的情况下,潜在的错误(在直接作为实验调用system2之前不可见)是&#34;&#34;不支持UNC路径。&#34;我不得不将R studio中的工作目录更改为不属于网络共享的目录,然后开始工作。