在R

时间:2019-05-31 08:05:32

标签: r apache-spark sparkr

我可以使用SPARK_PATH中的sparkR命令成功启动spark会话。但这确实给了我警告

In SparkR::sparkR.session() :
  Version mismatch between Spark JVM and SparkR package. JVM version was 2.3.0.xxxx , while R package version was 2.3.0

已安装的spark版本是2.3.0.xxxx,其中xxxx是公司自己部署的spark版本的公司特定版本代码。

但是,当我尝试使用命令使用R启动Spark会话时。

library(SparkR)
sparkR.session()

我遇到以下错误:

Error in sparkR.sparkContext(master, appName, sparkHome, sparkConfigMap,  :
  Unexpected EOF in JVM connection data. Mismatched versions?

似乎我们的版本号确实不匹配,但是独立的sparkR仅发出警告,而R中的sparkR.session()只会失败。我将无法更改我们的Spark安装的版本号,因为它是公司特定的版本。我有什么办法可以解决这个问题?

我的R版本是3.5.1,而spark版本是2.3.0。

我正在尝试在Jupyter笔记本中使用sparkR,因此在已建立的R会话中启动spark会话的功能更为可取。

任何建议将不胜感激。

1 个答案:

答案 0 :(得分:0)

我遇到了同样的问题,通常是由于SPARK_HOME目录的路径中存在空格“”

例如,如果将Spark Home安装在 "C:/users/root/Sam folder/SPARK" 更改为 "C:/users/root/Samfolder/SPARK"  即删除空格