标签: java heap overhead jhat
jhat是一个分析Java堆转储的好工具,但对于大堆来说,它很容易浪费大量时间。给jhat运行时堆太小,可能需要15分钟才能失败并且内存不足。
我想知道的是:根据heapdump文件的大小,有多少-Xmx堆我应该给jhat一个经验法则?只考虑二进制堆转储现在。
一些非常有限的实验表明它的至少是堆转储大小的3-4倍。我能够用-J-mx12G分析一个三改万亿字节的堆文件。
是否有其他人有更确定的实验数据,或了解jhat如何在运行时表示堆对象?
数据点: