对非常大的db4o数据库文件进行碎片整理

时间:2012-08-28 11:25:02

标签: heap db4o defragmentation

我有一个非常大的(102gb)db4o .yap文件,我正在尝试进行碎片整理。我不断收到java堆空间错误。有什么我可以做的调整设置,以防止这种情况?我已经将objectCommitFrequency设置为10000.我给java进程3 gig的内存来运行它但它仍然崩溃。

1 个答案:

答案 0 :(得分:1)

唯一可能有用的是使用DatabaseIdMapping。但我想你已经尝试过了,不是吗?

IdMapping mapping = new DatabaseIdMapping("temporary-mapping.tmp");
DefragmentConfig config = new DefragmentConfig("database.db4o", "database.db4o.back", mapping);

Defragment.defrag(config);