我正在遵循此处的指示:
https://www.datacamp.com/community/tutorials/apache-spark-python#gs.WEktovg
我下载并预构建了Spark版本,解压缩并将其发送到/ usr / local / spark。
根据这一点,这就是我应该做的全部。
不幸的是,我可以运行交互式shell,因为它无法找到该文件。
当我跑步时:
./bin/pyspark
我得到了
-bash: ./bin/pyspark: No such file or directory.
我还注意到以这种方式安装它不会将它添加到bin目录。
这个教程是错的还是我错过了一个技巧?
答案 0 :(得分:1)
您需要将工作目录更改为/usr/local/spark
。然后这个命令就可以了。
而且,当你解开它时,它通常不会将它添加到bin文件夹中。您需要通过添加环境变量的路径手动添加它。
答案 1 :(得分:0)
将您的工作目录更新为/usr/local/spark
并执行命令。希望这将解决问题。