我在笔记本电脑上安装了Spark。而且我能够执行'spark-shell'命令并打开scala shell,如下所示。
C:\Spark1_6\spark-1.6.0-bin-hadoop2.6\bin>spark-shell
scala>
但是当我尝试执行pyspark
命令时。
C:\Spark1_6\spark-1.6.0-bin-hadoop2.6\bin>pyspark
我收到以下错误消息。
'蟒'不被视为内部或外部命令
我确实设置了环境User' Path'手动变量。 通过附加
&#34 ;; C:\ Python27"
我重启了笔记本电脑但仍然得到了同样的错误。 任何人都可以帮我解决这个问题吗?我没有正确更新环境变量吗?
版本:Spark:1.6.2 Windows:8.1
答案 0 :(得分:3)
Spark文档可用。不要害怕,阅读它。
http://spark.apache.org/docs/1.6.0/configuration.html#environment-variables
某些Spark设置可以通过环境变量进行配置,这些变量可以从Windows上的...
conf\spark-env.cmd
读取 ...
PYSPARK_PYTHON
用于的二进制可执行文件 驱动程序和工作程序中的PySpark(如果可用,则默认为python2.7
,否则为python
)PYSPARK_DRIVER_PYTHON
要使用的Python二进制可执行文件 仅适用于驱动程序中的PySpark(默认为PYSPARK_PYTHON)。
尝试这样的事情:
set PYSPARK_PYTHON=C:\Python27\bin\python.exe
pyspark