获取错误'异常:在尝试访问SPYDER

时间:2017-05-09 14:57:01

标签: java python pyspark spyder

我正试图通过Spyder运行pyspark

这是完整的错误:

  

追踪(最近一次呼叫最后一次):

     

文件“”,第1行,in       sc = SparkContext('local',conf = conf)

     

文件   “C:\用户\ ashish.dang \文件\软件\火花2.1.0彬hadoop2.7 \火花2.1.0彬hadoop2.7 \蟒\ lib中\ pyspark.zip \ pyspark \上下文。 PY”,   第115行,在 init 中       SparkContext._ensure_initialized(self,gateway = gateway,conf = conf)

     

文件   “C:\用户\ ashish.dang \文件\软件\火花2.1.0彬hadoop2.7 \火花2.1.0彬hadoop2.7 \蟒\ lib中\ pyspark.zip \ pyspark \上下文。 PY”,   第256行,在_ensure_initialized中       SparkContext._gateway = gateway或launch_gateway(conf)

     

文件   “C:\用户\ ashish.dang \文件\软件\火花2.1.0彬hadoop2.7 \火花2.1.0彬hadoop2.7 \蟒\ lib中\ pyspark.zip \ pyspark \ java_gateway。 PY”,   第95行,在launch_gateway中       提升异常(“在向驱动程序发送端口号之前退出Java网关进程”)

     

异常:在发送驱动程序之前退出Java网关进程   端口号

我已经提到了以下问题:hereherehere

这是我正在使用的代码

#Add the following paths to the system path. Please check your installation
#to make sure that these zip files actually exist. The names might change
#as versions change.
sys.path.insert(0,os.path.join(SPARK_HOME,"python"))
sys.path.insert(0,os.path.join(SPARK_HOME,"python","lib"))
sys.path.insert(0,os.path.join(SPARK_HOME,"python","lib","pyspark.zip"))
sys.path.insert(0,os.path.join(SPARK_HOME,"python","lib","py4j-0.10.4-src.zip"))

#Initiate Spark context. Once this is done all other applications can run
from pyspark import SparkContext
from pyspark import SparkConf

# Optionally configure Spark Settings
conf=SparkConf()

我无法找到问题的解决方案。我尝试更改Spyder中的环境变量('SPARK_HOME','PYSPARK_SUBMIT_ARGS'和'JAVA_HOME')

你能帮我解决这个问题或引导我走向正确的方向吗?

由于

0 个答案:

没有答案