在我的终端上运行pyspark在pyspark启动时出现了一个新问题:
17/12/28 10:31:59 ERROR SparkContext: Error initializing SparkContext. java.net.BindException: Can't assign requested address:
服务'sparkDriver'在16次重试后失败(从0开始)! 考虑明确设置服务的适当端口 'sparkDriver'(例如SparkUI的spark.ui.port)可用 端口或增加spark.port.maxRetries。
我首先想到的是Java运行时问题,但事实并非如此,火花驱动程序无法连接到主机。 任何想法?救命?建议?