当我运行时,Spark会挂起:
@Test
def collectTest(): Unit = {
val conf = new SparkConf()
.setAppName(s"MyApp")
.setMaster("spark://sp1:7077")
val sparkContext = new SparkContext(conf)
val data = Array(1,2)
sparkContext.parallelize(data).collect().foreach(println)
}
Spark 1.6.1,Scala 2.11,连接到独立的spark。
答案 0 :(得分:1)
事实证明,如果您未在桥接模式下使用VMWare,则会发生这种情况。 : - \
打开桥接模式的人。