我正在尝试在Linux中安装PySpark,但是当我关注多个指南时,当我尝试在终端中运行pyspark
时,它仍然会出错。它仍然给我留言Error: Pyspark not found
。
这就是我所拥有的:
在<{1}}底部的:
~.bashrc
并在export SPARK_PATH=~/spark-2.3.0-bin-hadoop2.7
export $SPARK_PATH/bin/pyspark --master local[2]
ls
Python版
root@kali~ spark-2.3.0-bin-hadoop2.7
Java版
Python 2.7.14+ (default, Dec 5 2017, 15:17:02)
[GCC 7.2.0] on linux2
修改:我尝试使用openjdk version "10.0.1" 2018-04-17
OpenJDK Runtime Environment (build 10.0.1+10-Debian-4)
OpenJDK 64-Bit Server VM (build 10.0.1+10-Debian-4, mixed mode)
,但它给了我一个错误:
source .bashrc
如何在代码中添加此内容而不会出现错误?
Edit2: @Ramesh Maharjan解决了.bashrc的问题,但是如果我尝试运行Spark,我仍然会收到Java错误:
bash: export: `/root/spark-2.3.0-bin-hadoop2.7/bin/pyspark': not a valid identifier
bash: export: `--master': not a valid identifier
bash: export: `local[2]': not a valid identifier