sparkDriver的请求地址失败

时间:2017-12-28 09:43:38

标签: java python apache-spark pyspark

在我的终端上运行pyspark在pyspark启动时出现了一个新问题:

17/12/28 10:31:59 ERROR SparkContext: Error initializing SparkContext. java.net.BindException: Can't assign requested address:
     

服务'sparkDriver'在16次重试后失败(从0开始)!   考虑明确设置服务的适当端口   'sparkDriver'(例如SparkUI的spark.ui.port)可用   端口或增加spark.port.maxRetries。

我首先想到的是Java运行时问题,但事实并非如此,火花驱动程序无法连接到主机。 任何想法?救命?建议?

0 个答案:

没有答案