标签: apache-spark pyspark
我根据在互联网上找到的所有可用教程安装了spark。设置所有环境变量,但我仍然无法启动它。请参阅附件的报告。
答案 0 :(得分:0)
确保已正确设置火花起始位置和路径的环境变量,例如:
SPARK_HOME = D:\Spark\spark-2.3.0-bin-hadoop2.7 PATH += D:\Spark\spark-2.3.0-bin-hadoop2.7\bin