可以在命令提示符下运行pyspark.cmd但不能运行pyspark

时间:2018-10-03 03:03:44

标签: apache-spark pyspark

我正在尝试为Windows安装pyspark。我有java,python,Hadoop和spark的所有设置和环境变量,我相信这些设置已按照我在其他地方的说明进行了设置。实际上,我可以在命令提示符下运行它:

pyspark.cmd

它将加载pyspark解释器。但是,我应该能够运行不合格的pyspark(没有.cmd),否则python导入将无法进行。是否直接导航至spark \ bin都没有关系,因为我确实已将spark \ bin添加到PATH。

.cmd列在我的PATHEXT变量中,所以我不明白为什么pyspark命令本身不起作用。

感谢您的帮助。

1 个答案:

答案 0 :(得分:0)

虽然我仍然不知道为什么,但是我认为这个问题源于我解压缩spark tar文件的方式。在spark \ bin文件夹中,没有包含.cmd扩展名的我无法运行任何.cmd程序。但是我基本上可以在任何其他文件夹中执行此操作。我重新解压缩后,问题不再存在。