我在Anaconda中使用Jupiter Notebook。
我已经成功安装pyspark和findpyspark。
我现在正在使用代码:SPARK_HOME = C:\spark\spark-2.3.2-bin-hadoop2.7
来设置火花。
但是,我得到了错误:
File "<ipython-input-27-2126598a4c18>", line 1
SPARK_HOME = C:\spark\spark-2.3.2-bin-hadoop2.7
^
SyntaxError: invalid syntax
我该如何解决?
答案 0 :(得分:1)
您只需要将Spark_Home指定为字符串
SPARK_HOME = "C:\spark\spark-2.3.2-bin-hadoop2.7"
这可以解决您在帖子中遇到的错误。对于下一个错误(您在评论中共享),该错误类似于:The SPARK_HOME env variable is set but Jupyter Notebook doesn't see it. (Windows)