我正在尝试了解以下错误,并且我在客户端ode中运行。
org.apache.spark.SparkException: Kryo serialization failed: Buffer overflow. Available: 0, required: 61186304. To avoid this, increase spark.kryoserializer.buffer.max value.
at org.apache.spark.serializer.KryoSerializerInstance.serialize(KryoSerializer.scala:300)
at org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:313)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
at java.lang.Thread.run(Thread.java:745)
基本上我正试图缩小问题的范围。
我的理解是正确的,这个错误发生在火花驱动程序方面(我在aws emr所以我相信这将在master上运行)?
我应该看spark.driver.memory
?
答案 0 :(得分:1)
否,问题在于kryo的缓冲区中没有足够的空间。您应该在属性文件中调整spark.kryoserializer.buffer.max
,或在spark-submit命令中使用--conf "spark.kryoserializer.buffer.max=128m"
。 128m应该足够大了。