Matlab中的GZIP用于大文件

时间:2017-10-13 15:48:49

标签: java matlab gzip zlib matlab-java

我有一个函数解包使用zlib库打包的字节数组Z(改编自here)。

  • 打包数据大小为4.11 GB,解压缩数据为6.65GB。我有32GB的内存,所以这远远低于限制。
  • 我尝试将java堆大小增加到15.96GB,但这没有帮助。
  • MATLAB_JAVA环境变量指向jre1.8.0_144。

我得到了神秘的错误

'MATLAB array exceeds an internal Java limit.' 

在此代码的2 nd 行:

import com.mathworks.mlwidgets.io.InterruptibleStreamCopier
a=java.io.ByteArrayInputStream(Z);
b=java.util.zip.GZIPInputStream(a);
isc = InterruptibleStreamCopier.getInterruptibleStreamCopier;
c = java.io.ByteArrayOutputStream;
isc.copyStream(b,c);
M=typecast(c.toByteArray,'uint8');

试图实施Mark Adler的建议:

Z=reshape(Z,[],8);
import com.mathworks.mlwidgets.io.InterruptibleStreamCopier
a=java.io.ByteArrayInputStream(Z(:,1));
b=java.util.zip.GZIPInputStream(a);
for ct = 2:8,b.read(Z(:,ct));end
isc = InterruptibleStreamCopier.getInterruptibleStreamCopier;
c = java.io.ByteArrayOutputStream;
isc.copyStream(b,c);

但在此isc.copystream我收到此错误:

Java exception occurred:
java.io.EOFException: Unexpected end of ZLIB input stream

    at java.util.zip.InflaterInputStream.fill(Unknown Source)

    at java.util.zip.InflaterInputStream.read(Unknown Source)

    at java.util.zip.GZIPInputStream.read(Unknown Source)

    at java.io.FilterInputStream.read(Unknown Source)

    at com.mathworks.mlwidgets.io.InterruptibleStreamCopier.copyStream(InterruptibleStreamCopier.java:72)

    at com.mathworks.mlwidgets.io.InterruptibleStreamCopier.copyStream(InterruptibleStreamCopier.java:51)

直接从文件中读取 我试图直接从文件中读取数据。

streamCopier = com.mathworks.mlwidgets.io.InterruptibleStreamCopier.getInterruptibleStreamCopier;
fileInStream = java.io.FileInputStream(java.io.File(filename));
fileInStream.skip(datastart);
gzipInStream = java.util.zip.GZIPInputStream( fileInStream );
baos = java.io.ByteArrayOutputStream;
streamCopier.copyStream(gzipInStream,baos);
data = baos.toByteArray;
baos.close;
gzipInStream.close;
fileInStream.close;

适用于小文件,但是我得到的是大文件:

Java exception occurred:
java.lang.OutOfMemoryError

在第streamCopier.copyStream(gzipInStream,baos);

2 个答案:

答案 0 :(得分:5)

瓶颈似乎是正在创建的每个Java对象的大小。这种情况发生在java.io.ByteArrayInputStream(Z),因为MATLAB数组无法转换为Java无转换,也适用于copyStream,其中数据实际上被复制到输出缓冲区/内存中。我有类似的想法将对象拆分为允许大小的块(src):

function chunkDunzip(Z)
%% Imports:
import com.mathworks.mlwidgets.io.InterruptibleStreamCopier
%% Definitions:
MAX_CHUNK = 100*1024*1024; % 100 MB, just an example
%% Split to chunks:
nChunks = ceil(numel(Z)/MAX_CHUNK);
chunkBounds = round(linspace(0, numel(Z), max(2,nChunks)) );

V = java.util.Vector();
for indC = 1:numel(chunkBounds)-1
  V.add(java.io.ByteArrayInputStream(Z(chunkBounds(indC)+1:chunkBounds(indC+1))));
end

S = java.io.SequenceInputStream(V.elements);  
b = java.util.zip.InflaterInputStream(S);

isc = InterruptibleStreamCopier.getInterruptibleStreamCopier;
c = java.io.FileOutputStream(java.io.File('D:\outFile.bin'));
isc.copyStream(b,c);
c.close();

end

几点说明:

  1. 我使用了FileOutputStream,因为它没有遇到Java对象的内部限制(就我的测试而言)。
  2. 仍然需要增加Java堆内存。
  3. 我使用 deflate 演示了它,而不是gzip。 gzip的解决方案非常相似 - 如果这是一个问题,我会修改它。

答案 1 :(得分:2)

你不需要一下子读完所有内容。您可以重复b.read()次调用,其中提供一些指定长度的字节数组。重复,直到它返回-1。使用生成的块在巨型MATLAB数组中构建结果,而不是在巨型Java数组中。