我正在尝试预处理大型txt文件(10G),并将其存储在二进制文件中以备将来使用。随着代码的运行,它会变慢并以
结束线程中的异常" main" java.lang.OutOfMemoryError:GC开销 超出限额
输入文件具有以下结构
200020000000008;0;2
200020000000004;0;2
200020000000002;0;2
200020000000007;1;2
这是我正在使用的代码:
String strLine;
FileInputStream fstream = new FileInputStream(args[0]);
BufferedReader br = new BufferedReader(new InputStreamReader(fstream));
//Read File Line By Line
HMbicnt map = new HMbicnt("-1");
ObjectOutputStream outputStream = null;
outputStream = new ObjectOutputStream(new FileOutputStream(args[1]));
int sepIndex = 15;
int sepIndex2 = 0;
String str_i = "";
String bb = "";
String bbBlock = "init";
int cnt = 0;
lineCnt = 0;
while ((strLine = br.readLine()) != null) {
//rozparsovat radek
str_i = strLine.substring(0, sepIndex);
sepIndex2 = strLine.substring(sepIndex+1).indexOf(';');
bb = strLine.substring(sepIndex+1, sepIndex+1+sepIndex2);
cnt = Integer.parseInt(strLine.substring(sepIndex+1+sepIndex2+1));
if(!bb.equals(bbBlock)){
outputStream.writeObject(map);
outputStream.flush();
map = new HMbicnt(bb);
map.addNew(str_i + ";" + bb, cnt);
bbBlock = bb;
}
else{
map.addNew(str_i + ";" + bb, cnt);
}
}
outputStream.writeObject(map);
//Close the input stream
br.close();
outputStream.writeObject(map = null);
outputStream.close();
基本上,它遍历in文件并将数据存储到对象HMbicnt(这是一个哈希映射)。一旦它在第二列遇到新值,它应该将对象写入输出文件,释放内存并继续。
感谢您的帮助。
答案 0 :(得分:2)
我认为问题不是10G在内存中,而是你创建了太多的HashMaps。也许您可以清除HashMap,而不是在您不再需要它之后重新创建它。 在java.lang.OutOfMemoryError: GC overhead limit exceeded中似乎存在类似的问题,它也与HashMaps相关
答案 1 :(得分:1)
简单地说,你使用了太多的内存。因为,正如你所说,你的文件是10 GB,你无法将它全部装入内存(当然,除非你碰巧有超过10 GB的RAM并配置了Java使用它。)
从我的代码和描述中我可以看出,您将整个文件读入内存并将其添加到一个巨大的RAM内地图中这样做,然后将结果写入输出。这是不可行的。您需要重新设计代码才能就地工作(即在任何给定时间只将文件的一小部分保留在内存中)。