我正试图在我的本地机器上运行pyspark,不知何故我不能。我已经下载了最新版本的Spark,并在.bash_profile中设置了以下路径:
export PATH="/Users/user/Downloads/spark-1.3.1-bin-hadoop2.6/bin:$PATH"
当我运行此命令时:
IPYTHON_OPTS="notebook” pyspark
什么都没发生。我已根据指令完成了所有操作,而我所看到的是该命令的输出是此符号后面没有任何内容:
>
有人可以帮助我吗?
由于