我使用这样的代码来设置我的帧缓冲区:
glGenRenderbuffers(1, &colorBuffer_) ;
glBindRenderbuffer(GL_RENDERBUFFER, colorBuffer_);
if (!colorBuffer_)
{
NSLog(@"glGenRenderbuffers() failed");
break;
}
[self.context renderbufferStorage:GL_RENDERBUFFER fromDrawable:drawable_];
glGetRenderbufferParameteriv(GL_RENDERBUFFER, GL_RENDERBUFFER_WIDTH, &width_);
glGetRenderbufferParameteriv(GL_RENDERBUFFER, GL_RENDERBUFFER_HEIGHT, &height_);
glGenFramebuffers(1, &fbo);
glBindFramebuffer(GL_FRAMEBUFFER, fbo);
if (!fbo)
{
NSLog(@"glGenFramebuffers() failed");
break;
}
CVReturn err = CVOpenGLESTextureCacheCreate(kCFAllocatorDefault, NULL, self.context, NULL, &textureCache_);
if (err)
{
NSAssert(NO, @"Error at CVOpenGLESTextureCacheCreate %d", err);
}
CFDictionaryRef empty; // empty value for attr value.
CFMutableDictionaryRef attrs;
empty = CFDictionaryCreate(kCFAllocatorDefault, // our empty IOSurface properties dictionary
NULL,
NULL,
0,
&kCFTypeDictionaryKeyCallBacks,
&kCFTypeDictionaryValueCallBacks);
attrs = CFDictionaryCreateMutable(kCFAllocatorDefault,
1,
&kCFTypeDictionaryKeyCallBacks,
&kCFTypeDictionaryValueCallBacks);
CFDictionarySetValue(attrs,
kCVPixelBufferIOSurfacePropertiesKey,
empty);
CVPixelBufferCreate(kCFAllocatorDefault,
(int)width_,
(int)height_,
kCVPixelFormatType_32BGRA,
attrs,
&renderTarget_);
err = CVOpenGLESTextureCacheCreateTextureFromImage (kCFAllocatorDefault,
textureCache_, renderTarget_,
NULL, // texture attributes
GL_TEXTURE_2D,
GL_RGBA, // opengl format
(int)width_,
(int)height_,
GL_BGRA, // native iOS format
GL_UNSIGNED_BYTE,
0,
&renderTexture_);
if (err)
{
NSAssert(NO, @"Error at CVOpenGLESTextureCacheCreate %d", err);
}
CFRelease(attrs);
CFRelease(empty);
glBindTexture(CVOpenGLESTextureGetTarget(renderTexture_), CVOpenGLESTextureGetName(renderTexture_));
checkForErrors();
glTexParameterf(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S, GL_CLAMP_TO_EDGE);
glTexParameterf(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_CLAMP_TO_EDGE);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_LINEAR);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER, GL_LINEAR);
NSLog(@"%u", CVOpenGLESTextureGetName(renderTexture_));
glFramebufferTexture2D(GL_FRAMEBUFFER, GL_COLOR_ATTACHMENT0, GL_TEXTURE_2D, CVOpenGLESTextureGetName(renderTexture_), 0);
glFramebufferRenderbuffer(GL_FRAMEBUFFER, GL_COLOR_ATTACHMENT0, GL_RENDERBUFFER, colorBuffer_);
我想渲染到纹理并同时渲染到renderbuffer(以在屏幕上查看渲染结果)。但是这段代码不起作用。我认为我不能同时使用glFramebufferTexture2D
和glFramebufferRenderbuffer
。我对吗?我怎么能这样做?
答案 0 :(得分:4)
你是对的,你不能将纹理和渲染缓冲区都附加到同一个连接点,以自动渲染到这两个连接点。
将其渲染到纹理,然后在屏幕上绘制一个屏幕大小的纹理四边形以显示它。当然,请记住在渲染时将纹理解除绑定(glBindTexture(GL_TEXTURE_2D, 0)
),此时您不会这样做。
或者通过像往常一样将结果渲染到屏幕并使用glCopyTexSubImage2D
将这些结果复制到纹理中来反过来。但最终你不会绕过副本,无论是间接绘制纹理四边形还是直接帧缓冲到纹理副本。
编辑:您也可以使用多个渲染目标解决此问题,方法是将纹理和渲染缓冲区附加到不同的颜色附件,并在片段着色器中的多个通道上输出相同的结果颜色(使用{ {1}}代替gl_FragData[i]
)。但我不确定这是否真的会给你带来任何东西,而且它需要你的着色器才能知道双重渲染。最后我不确定ES实际上是否支持多重渲染目标。