为什么我需要depthBuffer才能使用RenderTexture?

时间:2013-09-26 08:37:43

标签: c# camera unity3d render depth-buffer

我认为我不太了解Unity渲染引擎。

我使用RenderTexture生成屏幕截图(我需要稍后管理):

    screenshotRenderTexture = new RenderTexture(screenshot.width, screenshot.height, depthBufferBits, RenderTextureFormat.Default);
    screenshotRenderTexture.Create();

    RenderTexture currentRenderTexture = RenderTexture.active;
    RenderTexture.active = screenshotRenderTexture;

    Camera[] cams = Camera.allCameras;

    System.Array.Sort(
            cams,
            delegate(Camera cam1, Camera cam2)
            {
                // It's easier than write float to int conversion that won't floor
                // depth deltas under 1 to zero and will correctly work with NaNs
                if (cam1.depth < cam2.depth)
                    return -1;
                else if (cam1.depth > cam2.depth)
                    return 1;
                else return 0;
            }
        );

    foreach(Camera cam in cams)
    {
        cam.targetTexture = screenshotRenderTexture;          
        cam.Render();
        cam.targetTexture = null;
    }

    screenshot.ReadPixels(new Rect(0, 0, textureWidth, textureHeight), 0, 0);
    screenshot.Apply();

    RenderTexture.active = currentRenderTexture;

但是,如果depthBufferBits为0,则渲染会导致所有类型的z缓冲区错误(以错误的顺序呈现的内容)。

我理解一般意义上的深度缓冲是什么。但是,我不明白的是 - 如果使用RenderTexture来组合各个摄像机的渲染结果,为什么需要深度缓冲?这个抽象是如何工作的 - 确切地说 - 相机是否自己创建图像然后将其提供给RenderTexture,或者相机使用RenderTexture的深度缓冲区?它似乎是后者,因为我经历的错误(错误顺序的东西都是用相同的相机渲染的,所以问题是在一台相机内部订购东西,而不是在不同相机之间订购东西),但同时时间与C#级别上这些抽象结构的常识相矛盾。

最后 - 我可以以某种方式使用用于正常渲染的默认深度缓冲区吗?因为移动设备上每像素16位非常痛苦。

更新

这是我试图做的事情:

    screenshotRenderTexture = new RenderTexture(
            screenshot.width,
            screenshot.height,
            0,
            RenderTextureFormat.Default
        );
    screenshotRenderTexture.Create();

    RenderBuffer currentColorBuffer = Graphics.activeColorBuffer;
    Graphics.SetRenderTarget(screenshotRenderTexture.colorBuffer, Graphics.activeDepthBuffer);
    yield return new WaitForEndOfFrame();
    Graphics.SetRenderTarget(currentColorBuffer, Graphics.activeDepthBuffer);

这就是我得到的:

SetRenderTarget can only mix color & depth buffers from RenderTextures. You're trying to set depth buffer from the screen.
UnityEngine.Graphics:SetRenderTarget(RenderBuffer, RenderBuffer)
<ScreenshotTaking>c__Iterator21:MoveNext() (at Assets/Scripts/Managers/ScreenshotManager.cs:126)

为什么它不能混合来自屏幕的深度缓冲区和RenderTexture的颜色缓冲区?

1 个答案:

答案 0 :(得分:3)

我不太了解Unity,但我知道他们的基础层,如果他们可以映射说D3D9,D3d10和OpenGL,那么他们的抽象必须使用一个共同的分母。

在这种情况下,D3D10是最受限制的,您不能在不同尺寸的渲染目标之间共享深度表面。如果您拥有相同大小的屏幕并在整个地方渲染目标,那么您确实可以将唯一的深度缓冲区绑定到不同的渲染目标。

深度缓冲区不是严格必要的,因为你已经观察到你可以在没有深度缓冲区的情况下进行渲染,但结果只是渲染绘制命令的顺序。 (在D3D中绘制call = DrawPrimitive,或者glDrawBuffers等等)甚至可以保证订单在三角形级别上符合规范,即使图形卡非常平行,它们也会被拒绝并行发布原语。通过一次平局调用的不同运行来绘制的一致性。

如果使用深度缓冲区,那些碰巧在较低深度绘制的对象之后进行绘制调用的对象将覆盖这些关闭对象(在视图空间中)并给出错误结果,深度缓冲区有助于丢弃像素一个像素,一个物体的像素,其深度(在视图空间中)比之前在此像素处渲染的物体更深,但深度更近。

绑定深度缓冲区也有助于提高性能,因为如果一个块中的每个像素都具有特定值的最小深度,则原始光栅化器在顶点缓冲区退出后知道原始图像的整个部分永远不会在此块上呈现,并完全丢弃整个块。这称为早期Z剔除,对性能有很大帮助。因此,最好保持深度缓冲区堵塞。

相机在低级图形理论中没有概念,它只是一个视图矩阵表示,它是一个应用于整个世界的逆变换,将世界从世界空间转移到视图空间,作为任何单个顶点变换的一部分计算。这就是为什么在经典顶点着色器中,位置取自对象空间(在顶点缓冲流中),然后乘以对象矩阵变换,然后乘以视图矩阵变换,然后是投影矩阵变换,然后光栅化器划分一切都用'w'来划分视角。

通过利用这种“创建”相机概念的管道行为。 Unity必须通过暴露相机类来抽象所有这些。也许相机类甚至有一个“纹理目标”成员来解释这个相机的渲染将被存储的位置。

是的,渲染是直接指向指定的渲染纹理,没有中间前端缓冲区或其他,渲染目标是硬件支持的功能,并且在渲染结束时不需要复制。

渲染目标本身就是一个完整的配置,因为硬件多重采样它实际上可以绑定所需分辨率大小的多个缓冲区。

有颜色缓冲区,例如MSAA4x中的4个RGBA表面,深度缓冲区,通常是24位表示的固定点,而模板表面则是8位。所有这些曲面都代表渲染目标配置,是渲染所必需的。

我希望这会有所帮助