我已经在我的windows 10系统中安装了spark 1.6(预先为hadoop 2.6构建)版本,并且我已经正确设置了环境变量。当我运行pyspark时,我得到error message。
但是我可以运行" python"来自spark目录的命令及其返回的正确版本。
任何人都可以帮我解决这个问题吗?
答案 0 :(得分:2)
当你运行python时,它会直接进入python命令行,但是对于pyspark,你必须执行pyspark可执行文件,这个文件在这个位置不存在。您正在尝试C:\spark
,但pyspark文件存在此位置C:\spark\bin\pyspark
,因此您需要继续此位置并尝试运行pyspark。