我可以使用SPARK_PATH中的sparkR命令成功启动spark会话。但这确实给了我警告
In SparkR::sparkR.session() :
Version mismatch between Spark JVM and SparkR package. JVM version was 2.3.0.xxxx , while R package version was 2.3.0
已安装的spark版本是2.3.0.xxxx,其中xxxx是公司自己部署的spark版本的公司特定版本代码。
但是,当我尝试使用命令使用R启动Spark会话时。
library(SparkR)
sparkR.session()
我遇到以下错误:
Error in sparkR.sparkContext(master, appName, sparkHome, sparkConfigMap, :
Unexpected EOF in JVM connection data. Mismatched versions?
似乎我们的版本号确实不匹配,但是独立的sparkR仅发出警告,而R中的sparkR.session()只会失败。我将无法更改我们的Spark安装的版本号,因为它是公司特定的版本。我有什么办法可以解决这个问题?
我的R版本是3.5.1,而spark版本是2.3.0。
我正在尝试在Jupyter笔记本中使用sparkR,因此在已建立的R会话中启动spark会话的功能更为可取。
任何建议将不胜感激。
答案 0 :(得分:0)
我遇到了同样的问题,通常是由于SPARK_HOME目录的路径中存在空格“”
例如,如果将Spark Home安装在
"C:/users/root/Sam folder/SPARK"
更改为
"C:/users/root/Samfolder/SPARK"
即删除空格