我正试图通过Spyder运行pyspark
这是完整的错误:
追踪(最近一次呼叫最后一次):
文件“”,第1行,in sc = SparkContext('local',conf = conf)
文件 “C:\用户\ ashish.dang \文件\软件\火花2.1.0彬hadoop2.7 \火花2.1.0彬hadoop2.7 \蟒\ lib中\ pyspark.zip \ pyspark \上下文。 PY”, 第115行,在 init 中 SparkContext._ensure_initialized(self,gateway = gateway,conf = conf)
文件 “C:\用户\ ashish.dang \文件\软件\火花2.1.0彬hadoop2.7 \火花2.1.0彬hadoop2.7 \蟒\ lib中\ pyspark.zip \ pyspark \上下文。 PY”, 第256行,在_ensure_initialized中 SparkContext._gateway = gateway或launch_gateway(conf)
文件 “C:\用户\ ashish.dang \文件\软件\火花2.1.0彬hadoop2.7 \火花2.1.0彬hadoop2.7 \蟒\ lib中\ pyspark.zip \ pyspark \ java_gateway。 PY”, 第95行,在launch_gateway中 提升异常(“在向驱动程序发送端口号之前退出Java网关进程”)
异常:在发送驱动程序之前退出Java网关进程 端口号
这是我正在使用的代码
#Add the following paths to the system path. Please check your installation
#to make sure that these zip files actually exist. The names might change
#as versions change.
sys.path.insert(0,os.path.join(SPARK_HOME,"python"))
sys.path.insert(0,os.path.join(SPARK_HOME,"python","lib"))
sys.path.insert(0,os.path.join(SPARK_HOME,"python","lib","pyspark.zip"))
sys.path.insert(0,os.path.join(SPARK_HOME,"python","lib","py4j-0.10.4-src.zip"))
#Initiate Spark context. Once this is done all other applications can run
from pyspark import SparkContext
from pyspark import SparkConf
# Optionally configure Spark Settings
conf=SparkConf()
我无法找到问题的解决方案。我尝试更改Spyder中的环境变量('SPARK_HOME','PYSPARK_SUBMIT_ARGS'和'JAVA_HOME')
你能帮我解决这个问题或引导我走向正确的方向吗?
由于