Windows 10上的pyspark安装失败

时间:2020-01-05 21:39:06

标签: apache-spark pyspark

我根据在互联网上找到的所有可用教程安装了spark。设置所有环境变量,但我仍然无法启动它。请参阅附件的报告。enter image description here

1 个答案:

答案 0 :(得分:0)

确保已正确设置火花起始位置和路径的环境变量,例如:

SPARK_HOME = D:\Spark\spark-2.3.0-bin-hadoop2.7
PATH += D:\Spark\spark-2.3.0-bin-hadoop2.7\bin