Spark:任务没有被所有执行者平行化

时间:2018-01-27 16:43:05

标签: hadoop apache-spark hdfs bigdata spark-streaming

我有一个Spark Streaming应用程序将DStream转换为DataFrame并将其发送到API。来自API的响应DataFrame被写入HDFS。我注意到HDFS写入作业中的任务没有正确地分布在集群中。 这是Spark UI的executors tab。 以下是spark-submit配置:

--num-executors 16 \
--executor-memory 11888M \
--executor-cores 5 \
--driver-memory 12G \

我每3秒播放近40条消息。

0 个答案:

没有答案