我刚刚使用conda安装了pyspark 2.2.0(在Windows 7 64bit,java v1.8上使用python v3.6)
$conda install pyspark
它已下载并且似乎正确安装且没有错误。现在,当我在命令行上运行pyspark
时,它只是告诉我“系统找不到指定的路径。”
$pyspark
The system cannot find the path specified.
The system cannot find the path specified.
我尝试在我的PATH环境变量中包含pyspark路径目录,但这似乎仍然没有用,但也许我给出了错误的路径?任何人都可以请指教。是否需要在PATH环境变量中指定Java路径?感谢
答案 0 :(得分:1)
pip
或conda
一起安装)不包含完整的PySpark功能;它仅适用于现有集群中的Spark安装,在这种情况下,您可能需要avoid downloading the whole Spark distribution。来自docs:
Spark的Python包装并不是要替换所有其他用例。这个Python打包版本的Spark是合适的 用于与现有集群交互(无论是Spark独立, YARN或Mesos) - 但不包含设置所需的工具 您自己的独立Spark群集。您可以下载完整版 来自Apache Spark downloads page的Spark。
如果你打算在PySpark shell中工作,我建议你按照上面的说法下载Spark(PySpark是它的一个重要组成部分)。
答案 1 :(得分:1)
在我的情况下,问题是由双路径引起的。从环境中移除火花路径。
pip uninstall pyspark
pip install pyspark
答案 2 :(得分:0)
export PYSPARK_PYTHON=python3.5
当我遇到PATH问题时,这对我有用。希望能帮助到你。 如果没有,请查看您的配置文件。
答案 3 :(得分:0)