Spark任务读取数据但不回写

时间:2017-06-21 06:48:20

标签: scala apache-spark dataframe rdd

我们正在使用Spark 1.6版本,在Spark-shell中运行作业时,我们观察到任务正在读取数据但没有写回来完成任务,如下表所示

Address TaskTime TotalTask FailedTask succeededtask Shuffle/read Shuffle/write
   1       0         0         0            0           188KB/707   0.0B/670

Saprk programmis使用5个执行器5 GB大小和3个核心 请在这里建议

1 个答案:

答案 0 :(得分:0)

我通过增加群集设置中分区的任务数量来解决此问题