我们有一个在Spark Standalone上运行的非常复杂的应用程序。 在某些情况下,其中一个工作人员的任务在RUNNING状态下随机无限制地阻塞。
额外信息:
有没有人经历过类似的事情?关于如何确定问题的任何建议?
非常感谢!
稍后编辑:我认为我面临的问题与此处所述相同:Spark Indefinite Waiting with "Asked to send map output locations for shuffle"和此处:http://apache-spark-user-list.1001560.n3.nabble.com/Spark-stalling-during-shuffle-maybe-a-memory-issue-td6067.html但两者都没有可行的解决方案。
日志中无限重复的最后一件事是:[dispatcher-event-loop-18] DEBUG org.apache.spark.scheduler.TaskSchedulerImpl - parentName :, name:TaskSet_2,runningTasks:6
答案 0 :(得分:0)
通过为每个遗嘱执行人分配一个核心来解决这个问题。如果我有超过1核心的执行程序,则问题再次出现。我还没有理解为什么会发生这种情况,但对于那些有类似问题的人来说,他们可以试试这个。