Spark安装问题

时间:2017-03-30 10:41:31

标签: python-3.x apache-spark pyspark

我正在遵循此处的指示:

https://www.datacamp.com/community/tutorials/apache-spark-python#gs.WEktovg

我下载并预构建了Spark版本,解压缩并将其发送到/ usr / local / spark。

根据这一点,这就是我应该做的全部。

不幸的是,我可以运行交互式shell,因为它无法找到该文件。

当我跑步时:

./bin/pyspark

我得到了

-bash: ./bin/pyspark: No such file or directory. 

我还注意到以这种方式安装它不会将它添加到bin目录。

这个教程是错的还是我错过了一个技巧?

2 个答案:

答案 0 :(得分:1)

您需要将工作目录更改为/usr/local/spark。然后这个命令就可以了。

而且,当你解开它时,它通常不会将它添加到bin文件夹中。您需要通过添加环境变量的路径手动添加它。

答案 1 :(得分:0)

将您的工作目录更新为/usr/local/spark并执行命令。希望这将解决问题。