我正在使用Scala 2.11
(下面的Java 8)和Spark。我认为,与RDD相关的一些操作是在运行时抛出异常。但是,Spark试图序列化整个Task似乎吞噬了这个异常。输出的序列化堆栈跟踪很长,并且过早地被... 114 more
截断。我想知道其他114行是什么,但我似乎找不到阻止截断的方法。
在互联网上,我发现的唯一参考文献是在2009年发布的,宣传以下解决方案:
-Dsun.io.serialization.extendedDebugInfo=true
不幸的是,2009年也是甲骨文收购Java的一年,而且就我的实验所表明的而言,这已不再适用。
如何防止2016年Java序列化堆栈跟踪被截断?