使用'sparklyr'中的spark_connect命令连接Spark时出错:(R-3.4.0)

时间:2017-06-30 11:43:15

标签: r hadoop apache-spark sparkr sparklyr

我的系统上安装了Spark 1.6.2。此外,我在CentOS 6.9机器中使用R(3.4.0)和rstudio-server 1.0.143。

每当我运行命令时,

  

sc< - spark_connect(master =“local”)

它显示一条错误消息,指出:

  

spark_version_from_home中的错误(spark_home,default = spark_version)   :无法检测SPARK_HOME或SPARK_HOME_VERSION的版本。   尝试明确传递spark版本。

0 个答案:

没有答案