我已安装Spark 2.0并尝试使用sparkR命令。但命令发生错误消息如下所示。其他人都可以(spark-shell,pyspark ,,,)。请帮忙......
[错误讯息]
Dongkils-MacBook:spark-2.0.0-bin-hadoop2.7 dongkillee $ sparkR 环境:R:没有这样的文件或目录
答案 0 :(得分:0)
听起来好像没有设置SPARK_HOME。运行终端应用程序以获取命令提示符并检查:
ECHO $SPARK_HOME
如果结果没有列出你安装Spark的目录,那么这里有建议:
What to set `SPARK_HOME` to?
在R或R Studio中,您可以像这样在R中设置SPARK_HOME:
spark_path <- '/path_to_spark/spark_dir'
Sys.setenv("SPARK_HOME" = spark_path)
您还需要在R:
中添加SparkR库位置 spark_lib <- paste(spark_path, "/R/lib", sep="")
答案 1 :(得分:0)
R:没有这样的文件或目录
在Windows系统找不到R.exe文件时出现此错误。纠正改变PATH环境