无法启动sparkR

时间:2016-08-05 15:09:35

标签: apache-spark sparkr

我已安装Spark 2.0并尝试使用sparkR命令。但命令发生错误消息如下所示。其他人都可以(spark-shell,pyspark ,,,)。请帮忙......

[错误讯息]

Dongkils-MacBook:spark-2.0.0-bin-hadoop2.7 dongkillee $ sparkR 环境:R:没有这样的文件或目录

2 个答案:

答案 0 :(得分:0)

听起来好像没有设置SPARK_HOME。运行终端应用程序以获取命令提示符并检查: ECHO $SPARK_HOME

如果结果没有列出你安装Spark的目录,那么这里有建议:
 What to set `SPARK_HOME` to?

在R或R Studio中,您可以像这样在R中设置SPARK_HOME:

spark_path <- '/path_to_spark/spark_dir'
Sys.setenv("SPARK_HOME" = spark_path)

您还需要在R:

中添加SparkR库位置

spark_lib <- paste(spark_path, "/R/lib", sep="")

答案 1 :(得分:0)

  

R:没有这样的文件或目录

在Windows系统找不到R.exe文件时出现此错误。纠正改变PATH环境