无法从R连接到本地Spark

时间:2018-01-04 13:58:08

标签: r apache-spark sparklyr

我按照以下说明在我的Windows 7机器上安装了Spark: https://edumine.wordpress.com/2015/06/11/how-to-install-apache-spark-on-a-windows-7-environment/

我还定义了系统变量:

HADOOP_HOME = C:\hadoop2.6.0
JAVA_HOME = C:\Java
SPARK_HOME = C:\spark-2.2.1

它可以工作,因为我可以从cmd运行它: enter image description here

现在我想从RStudio连接(但R也是一个选项)。 我安装了sparklyr软件包并输入了以下命令:

library(sparklyr) 

sc = spark_connect(master = "local")

但是RStudio无法连接。实际上它没有显示任何消息,它只是继续加载,我可以用停止按钮停止它。 R上也一样。

注意:我没有使用以下命令安装本地版本的Spark:

spark_install(version = "2.1.0")

正如许多互联网指南中所建议的,因为我之前已经安装过它。正确? 我的手术可能有什么问题?

0 个答案:

没有答案