为什么我不能运行spark-shell?

时间:2017-10-30 14:35:55

标签: shell hadoop apache-spark spark-submit

我刚刚为MOOC下载了hadoop,spark和hive。我通过Virtualmachine运行Ubuntu17-10。 我可以运行不同的hadoop命令但是当我想运行" spark-shell"时,我收到一个错误:

bin/spark-shell: line 57: home/dieter/spark-2.1.0-bin-hadoop2.7/bin/spark-    submit: No such file or directory

当我在bin文件夹中运行spark-shell时,它说:

spark-shell: command not found

我使用以下内容更新了我的.bashrc文件:

export HADOOP_HOME=home/user/hadoop-2.7.3
PATH=$HADOOP_HOME/bin:$PATH
export SPARK_HOME=home/user/spark-2.1.0-bin-hadoop2.7
PATH=$SPARK_HOME/bin:$PATH
export HIVE_HOME=home/user/apache-hive-2.1.1-bin
PATH=$HIVE_HOME/bin:$PATH

请帮忙!提前致谢

0 个答案:

没有答案