我有两个关于火花流的问题:
20 seconds
批处理间隔运行的火花串流应用程序和收集数据,4000 batches
中有18 batches
因异常而失败:无法计算拆分,阻止输入-0-1464774108087未找到
我认为此时数据大小大于火花可用内存,同时应用StorageLevel
为MEMORY_ONLY
。
请告知如何解决此问题。
几次申请后,我不会用完内存吗?我需要那么多记忆吗?
/usr/iop/4.1.0.0/spark/bin/spark-submit --master yarn --deploy-mode 客户端--jars /home/blah.jar --num-executors 8 --executor-cores 5 --executor-memory 20G - driver-memory 12G --driver-cores 8
--class com.ccc.nifi.MyProcessor Nifi-Spark-Streaming-20160524.jar
答案 0 :(得分:0)
似乎您的执行者的内存将满,请尝试以下几种优化技术: