我已将Windows中的SPARK_ENV变量设置为以下路径:C:\ Users \ xxx \ spark-1.6.2-bin-hadoop2.6。当我在Jupyter中运行以下命令时:
import
findspark.init()
我收到此错误:
---------------------------------------------------------------------------
ValueError Traceback (most recent call last)
<ipython-input-3-a4bc4c9af84d> in <module>()
----> 1 findspark.init()
C:\Users\xxx\Anaconda3\lib\site-packages\findspark.py in init(spark_home, python_path, edit_rc, edit_profile)
119
120 if not spark_home:
--> 121 spark_home = find()
122
123 if not python_path:
C:\Users\xxx\Anaconda3\lib\site-packages\findspark.py in find()
30
31 if not spark_home:
---> 32 raise ValueError("Couldn't find Spark, make sure SPARK_HOME env is set"
33 " or Spark is in an expected location (e.g. from homebrew installation).")
34
ValueError: Couldn't find Spark, make sure SPARK_HOME env is set or Spark is in an expected location (e.g. from homebrew installation).
我不知道还有什么可以解决这个问题。我正在使用这些说明
答案 0 :(得分:2)
您可以在命令行上尝试SET
列出所有环境变量吗?问题是,findspark
无法在默认位置找到Spark,可能SPARK_HOME
未正确设置。
请尝试设置SPARK_HOME=C:\Users\xxx\spark-1.6.2-bin-hadoop2.6\libexec
,此外,不需要SPARK_ENV
位置。