Jupyter(Windows)无法识别SPARK_HOME

时间:2016-12-19 05:30:11

标签: apache-spark pyspark jupyter-notebook

我已将Windows中的SPARK_ENV变量设置为以下路径:C:\ Users \ xxx \ spark-1.6.2-bin-hadoop2.6。当我在Jupyter中运行以下命令时:

import
findspark.init()

我收到此错误:

---------------------------------------------------------------------------
ValueError                                Traceback (most recent call last)
<ipython-input-3-a4bc4c9af84d> in <module>()
----> 1 findspark.init()

C:\Users\xxx\Anaconda3\lib\site-packages\findspark.py in init(spark_home, python_path, edit_rc, edit_profile)
    119 
    120     if not spark_home:
--> 121         spark_home = find()
    122 
    123     if not python_path:

C:\Users\xxx\Anaconda3\lib\site-packages\findspark.py in find()
     30 
     31     if not spark_home:
---> 32         raise ValueError("Couldn't find Spark, make sure SPARK_HOME env is set"
     33                          " or Spark is in an expected location (e.g. from homebrew installation).")
     34 

ValueError: Couldn't find Spark, make sure SPARK_HOME env is set or Spark is in an expected location (e.g. from homebrew installation).

我不知道还有什么可以解决这个问题。我正在使用这些说明

1 个答案:

答案 0 :(得分:2)

您可以在命令行上尝试SET列出所有环境变量吗?问题是,findspark无法在默认位置找到Spark,可能SPARK_HOME未正确设置。

请尝试设置SPARK_HOME=C:\Users\xxx\spark-1.6.2-bin-hadoop2.6\libexec,此外,不需要SPARK_ENV位置。