6

我认为我不太了解 Unity 渲染引擎。

我使用 RenderTexture 生成屏幕截图(我需要稍后管理它):

    screenshotRenderTexture = new RenderTexture(screenshot.width, screenshot.height, depthBufferBits, RenderTextureFormat.Default);
    screenshotRenderTexture.Create();

    RenderTexture currentRenderTexture = RenderTexture.active;
    RenderTexture.active = screenshotRenderTexture;

    Camera[] cams = Camera.allCameras;

    System.Array.Sort(
            cams,
            delegate(Camera cam1, Camera cam2)
            {
                // It's easier than write float to int conversion that won't floor
                // depth deltas under 1 to zero and will correctly work with NaNs
                if (cam1.depth < cam2.depth)
                    return -1;
                else if (cam1.depth > cam2.depth)
                    return 1;
                else return 0;
            }
        );

    foreach(Camera cam in cams)
    {
        cam.targetTexture = screenshotRenderTexture;          
        cam.Render();
        cam.targetTexture = null;
    }

    screenshot.ReadPixels(new Rect(0, 0, textureWidth, textureHeight), 0, 0);
    screenshot.Apply();

    RenderTexture.active = currentRenderTexture;

但是,如果 depthBufferBits 为 0,则渲染结果会出现各种 z-buffer 错误(以错误的顺序渲染的东西)。

我理解一般意义上的深度缓冲区是什么。但是,我不明白的是——如果使用 RenderTexture 来组合单个相机的渲染结果,为什么需要深度缓冲区?这种抽象是如何工作的,究竟是相机自己创建图像,然后将其提供给 RenderTexture,还是相机使用 RenderTexture 的深度缓冲区?似乎是后者,因为我遇到了错误(错误顺序的东西都是用同一个相机渲染的,所以问题是在一个相机内订购东西,而不是在不同相机之间订购东西),但同时有时它与这些抽象如何在 C# 级别上构建的常识相矛盾。

最后,我能以某种方式使用默认深度缓冲区,用于在这个上进行正常渲染吗?因为移动设备上每像素 16 位是非常痛苦的。

更新:

这是我试图做的事情:

    screenshotRenderTexture = new RenderTexture(
            screenshot.width,
            screenshot.height,
            0,
            RenderTextureFormat.Default
        );
    screenshotRenderTexture.Create();

    RenderBuffer currentColorBuffer = Graphics.activeColorBuffer;
    Graphics.SetRenderTarget(screenshotRenderTexture.colorBuffer, Graphics.activeDepthBuffer);
    yield return new WaitForEndOfFrame();
    Graphics.SetRenderTarget(currentColorBuffer, Graphics.activeDepthBuffer);

这就是我得到的:

SetRenderTarget can only mix color & depth buffers from RenderTextures. You're trying to set depth buffer from the screen.
UnityEngine.Graphics:SetRenderTarget(RenderBuffer, RenderBuffer)
<ScreenshotTaking>c__Iterator21:MoveNext() (at Assets/Scripts/Managers/ScreenshotManager.cs:126)

为什么它不能混合来自屏幕的深度缓冲区和来自 RenderTexture 的颜色缓冲区?

4

1 回答 1

5

我不太了解 Unity,但我知道它们的基础层,如果它们可以映射 D3D9、D3d10 和 OpenGL,那么它们的抽象必须使用一个共同的分母。

在这种情况下,D3D10 是最大的限制,您不能在不同大小的渲染目标之间共享深度表面。如果你有相同大小的屏幕和渲染目标,那么你确实可以将唯一的深度缓冲区绑定到不同的渲染目标。

深度缓冲区不是严格意义上的必要,就像您观察到的那样,您可以在没有深度缓冲区的情况下进行渲染,但结果只是按照绘制命令发出的顺序进行渲染。(draw call = D3D中的DrawPrimitive,或glDrawBuffers等)甚至可以保证顺序在三角形级别上是一致的,即使图形卡非常平行,它们也被拒绝为为了通过一次绘制调用的不同运行绘制的一致性。

如果您使用深度缓冲区,在较低深度绘制的对象之后碰巧进行绘制调用的对象将覆盖这些靠近的对象(在视图空间中)并给出错误的结果,深度缓冲区有助于逐个像素地丢弃,对象的像素,其深度(在视图空间中)比之前已经在该像素处渲染过的东西更深,但深度更近。

绑定深度缓冲区也有助于提高性能,因为如果一个块中的每个像素都具有某个值的最小深度,则图元光栅化器会在顶点缓冲区退出后知道图元的整个部分将永远不会在此块上呈现,并丢弃整个街区。这称为早期 Z 剔除,对性能有很大帮助。因此,最好保持深度缓冲区处于堵塞状态。

相机在低级图形理论中没有概念,它只是由一个视图矩阵表示,它是应用于整个世界的逆变换,将世界从世界空间转移到视图空间,作为任何单个顶点变换计算的一部分。这就是为什么在经典的顶点着色器中,位置取自对象空间(在顶点缓冲区流中),然后乘以对象矩阵变换,然后乘以视图矩阵变换,然后是投影矩阵变换,然后光栅化器一切都由'w'来划分视角。

那就是通过利用这种管道行为,您“创建”了相机的概念。Unity 必须通过公开一个相机类来抽象所有这些。也许相机类甚至有一个“纹理目标”成员来解释这个相机的渲染将存储在哪里。

是的,渲染是直接针对指定的渲染纹理进行的,没有中间前端缓冲区或其他任何东西,渲染目标是硬件支持的功能,并且在渲染结束时不需要复制。

渲染目标本身就是一个完整的配置,由于硬件多重采样,它实际上可能会绑定所需分辨率大小的多个缓冲区。

有颜色缓冲区,例如 MSAA4x 中的 4 个 RGBA 表面,深度缓冲区,通常是固定点 24 位表示,以及 8 位用于模板表面。所有这些表面都代表渲染目标配置,并且是渲染所必需的。

我希望这有帮助

于 2013-09-27T01:04:04.267 回答