在Windows中为pyspark设置环境变量

时间:2017-06-15 13:24:46

标签: apache-spark pyspark environment-variables

我在笔记本电脑上安装了Spark。而且我能够执行'spark-shell'命令并打开scala shell,如下所示。 C:\Spark1_6\spark-1.6.0-bin-hadoop2.6\bin>spark-shell scala> 但是当我尝试执行pyspark命令时。 C:\Spark1_6\spark-1.6.0-bin-hadoop2.6\bin>pyspark

我收到以下错误消息。

  

'蟒'不被视为内部或外部命令

我确实设置了环境User' Path'手动变量。 通过附加

  

&#34 ;; C:\ Python27"

我重启了笔记本电脑但仍然得到了同样的错误。 任何人都可以帮我解决这个问题吗?我没有正确更新环境变量吗?

  

版本:Spark:1.6.2 Windows:8.1

1 个答案:

答案 0 :(得分:3)

Spark文档可用。不要害怕,阅读它。

http://spark.apache.org/docs/1.6.0/configuration.html#environment-variables

  

某些Spark设置可以通过环境变量进行配置,这些变量可以从Windows上的... conf\spark-env.cmd读取   ...
   PYSPARK_PYTHON 用于的二进制可执行文件   驱动程序和工作程序中的PySpark(如果可用,则默认为python2.7,否则为python)    PYSPARK_DRIVER_PYTHON 要使用的Python二进制可执行文件   仅适用于驱动程序中的PySpark(默认为PYSPARK_PYTHON)。

尝试这样的事情:

set PYSPARK_PYTHON=C:\Python27\bin\python.exe
pyspark