了解Kryo序列化缓冲区溢出错误

时间:2018-04-01 04:24:04

标签: scala apache-spark kryo

我正在尝试了解以下错误,并且我在客户端ode中运行。

 org.apache.spark.SparkException: Kryo serialization failed: Buffer overflow. Available: 0, required: 61186304. To avoid this, increase spark.kryoserializer.buffer.max value.
        at org.apache.spark.serializer.KryoSerializerInstance.serialize(KryoSerializer.scala:300)
        at org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:313)
        at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
        at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
        at java.lang.Thread.run(Thread.java:745)

基本上我正试图缩小问题的范围。 我的理解是正确的,这个错误发生在火花驱动程序方面(我在aws emr所以我相信这将在master上运行)? 我应该看spark.driver.memory

1 个答案:

答案 0 :(得分:1)

否,问题在于kryo的缓冲区中没有足够的空间。您应该在属性文件中调整spark.kryoserializer.buffer.max,或在spark-submit命令中使用--conf "spark.kryoserializer.buffer.max=128m"。 128m应该足够大了。