未找到Pyspark命令

时间:2018-05-13 23:30:08

标签: java python apache-spark pyspark

我正在尝试在Linux中安装PySpark,但是当我关注多个指南时,当我尝试在终端中运行pyspark时,它仍然会出错。它仍然给我留言Error: Pyspark not found

这就是我所拥有的:

在<{1}}底部的

~.bashrc

并在export SPARK_PATH=~/spark-2.3.0-bin-hadoop2.7 export $SPARK_PATH/bin/pyspark --master local[2]

ls

Python版

root@kali~ spark-2.3.0-bin-hadoop2.7

Java版

Python 2.7.14+ (default, Dec  5 2017, 15:17:02) 
[GCC 7.2.0] on linux2

修改:我尝试使用openjdk version "10.0.1" 2018-04-17 OpenJDK Runtime Environment (build 10.0.1+10-Debian-4) OpenJDK 64-Bit Server VM (build 10.0.1+10-Debian-4, mixed mode) ,但它给了我一个错误:

source .bashrc

如何在代码中添加此内容而不会出现错误?

Edit2: @Ramesh Maharjan解决了.bashrc的问题,但是如果我尝试运行Spark,我仍然会收到Java错误:

bash: export: `/root/spark-2.3.0-bin-hadoop2.7/bin/pyspark': not a valid identifier
bash: export: `--master': not a valid identifier
bash: export: `local[2]': not a valid identifier

0 个答案:

没有答案