glTexImage2D导致内存泄漏

时间:2017-02-17 08:55:12

标签: java opengl memory-leaks lwjgl

我计划使用OpenGL渲染视频流。

接收到视频的第一帧后,我要做的第一步是分配直接字节缓冲区并将所有帧片段放入其中。 ByteBuffer只分配一次。

directBuffer = ByteBuffer.allocateDirect(frameSize * fragmentCount);

当所有帧片段都到位后,我将ByteBuffer传递给OpenGL渲染器

public ByteBuffer getBuffer() {
    buffer.rewind();
    fragments.stream().forEach((frameFragment) -> {
        for (byte byteFragment : frameFragment.getFrameData()) {
            buffer.put(byteFragment);
        }
    });
    buffer.flip();
    return buffer;
}

主场景循环中的阻塞队列正在等待帧准备就绪,然后渲染场景。

ByteBuffer frame = framesQueue.take();

之后即时清除场景,设置视口等

            glClear(GL_COLOR_BUFFER_BIT);
            glColor3f(1, 1, 1);
            glMatrixMode(GL_PROJECTION);
            glPushMatrix();
            glLoadIdentity();
            glOrtho(-480, 480, -270, 270, -1, 1);
            glPushMatrix();
            glViewport(0, 0, 768, 576);

完成后,我就可以在场景中绘制纹理四边形了。

    glBindTexture(GL_TEXTURE_2D, glGenTextures());
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S, GL_CLAMP_TO_BORDER);
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_CLAMP_TO_BORDER);
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER, GL_LINEAR);
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_LINEAR);
    glTexImage2D(GL_TEXTURE_2D, 0, GL_LUMINANCE, 768, 576, 0, GL_LUMINANCE, GL_UNSIGNED_BYTE, buffer);
    glBegin(GL_QUADS);
    {
        glTexCoord2f(0.0f, 0.0f);
        glVertex2f(0.0f, 0.0f);

        glTexCoord2f(1.0f, 0.0f);
        glVertex2f(768, 0.0f);

        glTexCoord2f(1.0f, 1.0f);
        glVertex2f(768, 576);

        glTexCoord2f(0.0f, 1.0f);
        glVertex2f(0.0f, 576);
    }
    glEnd();

程序正在运行,视频非常流畅且延迟相当低(这是主要关注点)

问题在于方法

        glTexImage2D(GL_TEXTURE_2D, 0, GL_LUMINANCE, 768, 576, 0, GL_LUMINANCE, GL_UNSIGNED_BYTE, buffer);

导致内存泄漏。

java堆空间似乎很好enter image description here

但是java的内存使用量无限增长。enter image description here

对于测试,我做了评论执行

   glTexImage2D(GL_TEXTURE_2D, 0, GL_LUMINANCE, 768, 576, 0, GL_LUMINANCE, GL_UNSIGNED_BYTE, buffer);

方法,并没有发生内存泄漏。我也尝试使用drawPixels方法,这也有所帮助,但我认为使用纹理是这里的方法,而不是弃用的drawPixels方法。

如何解决内存泄漏问题?或者,每40ms在场景上显示新纹理的其他有效方法是什么。延迟是至关重要的。

1 个答案:

答案 0 :(得分:2)

这个电话似乎是一个问题

glBindTexture(GL_TEXTURE_2D, glGenTextures());

由于我只使用一个纹理,因此可以用

替换调用
glBindTexture(GL_TEXTURE_2D, 0);

这会阻止OpenGL在每次调用时创建NEW纹理。