我们正在使用Spark 1.6版本,在Spark-shell中运行作业时,我们观察到任务正在读取数据但没有写回来完成任务,如下表所示
Address TaskTime TotalTask FailedTask succeededtask Shuffle/read Shuffle/write
1 0 0 0 0 188KB/707 0.0B/670
Saprk programmis使用5个执行器5 GB大小和3个核心 请在这里建议
答案 0 :(得分:0)
我通过增加群集设置中分区的任务数量来解决此问题