我想要实际的世界空间距离,我从实验中得到感觉
(gl_FragCoord.z / gl_FragCoord.w)
世界空间的深度是多少?但我不太确定。
编辑我刚刚找到了我最初找到这段代码的位置。显然这是相机的实际深度?
我想要实际的世界空间距离,我从实验中得到感觉
(gl_FragCoord.z / gl_FragCoord.w)
世界空间的深度是多少?但我不太确定。
编辑我刚刚找到了我最初找到这段代码的位置。显然这是相机的实际深度?
这是(由同一个人)询问并在其他地方回答的。我在这里解释和修饰答案:
如OpenGL 4.3 核心配置文件规范 (PDF)的第 15.2.2 节所述,gl_FragCoord.w
是1 / clip.w
,clip.w
剪辑空间位置的 W 分量在哪里(即:您写入的内容gl_Position
)。
gl_FragCoord.z
由以下过程生成,假设通常的变换:
clip.z = (projectionMatrix * cameraPosition).z
ndc.z = clip.z / clip.w
glDepthRange
使用近/远值转换为窗口坐标。win.z = ((dfar-dnear)/2) * ndc.z + (dfar+dnear)/2
.现在,使用默认深度范围 near=0, far=1,我们可以win.z
根据剪辑空间定义:(clip.z/clip.w)/2 + 0.5
。如果我们然后将其除以gl_FragCoord.w
,则相当于乘以clip.w
,从而得到:
(gl_FragCoord.z / gl_FragCoord.w) = clip.z/2 + clip.w/2 = (clip.z + clip.w) / 2
使用标准投影矩阵,clip.z
表示从相机空间 Z 分量的比例和偏移量。比例和偏移由相机的近/远深度值定义。clip.w
同样在标准投影矩阵中,只是相机空间 Z 的否定。因此,我们可以用这些术语重新定义我们的方程:
(gl_FragCoord.z / gl_FragCoord.w) = (A * cam.z + B -cam.z)/2 = (C * cam.z + D)
其中A
和B
表示基于近/远的偏移和比例,以及C = (A - 1)/2
和D = B / 2
。
因此,不是gl_FragCoord.z / gl_FragCoord.w
相机空间(或世界空间)到相机的距离。它也不是到相机的相机空间平面距离。但它是相机空间深度的线性变换。如果它们来自同一个投影矩阵等等,您可以使用它来比较两个深度值。
要实际计算相机空间 Z,您需要将相机靠近/远离矩阵传递(OpenGL已经为您提供了范围 near/far)并从中计算这些值A
和B
值,或者您需要使用投影矩阵。或者,您可以自己直接使用投影矩阵,因为片段着色器可以使用与顶点着色器相同的制服。您可以直接从该矩阵中选择A
和项。, 和.B
A = projectionMatrix[2][2]
B = projectionMatrix[3][2]
根据文档:
Available only in the fragment language, gl_FragDepth is an output variable that
is used to establish the depth value for the current fragment. If depth buffering
is enabled and no shader writes to gl_FragDepth, then the fixed function value
for depth will be used (this value is contained in the z component of
gl_FragCoord) otherwise, the value written to gl_FragDepth is used.
因此,除非您在着色器中的其他位置设置它,否则它看起来gl_FragDepth
应该只是。gl_FragCoord.z
作为
gl_FragCoord.w = 1.0 / gl_Position.w
并且(可能)您的投影矩阵从 -z 获取 w(如果最后一列是 0,0,-1,0)然后;
float distanceToCamera = 1.0 / gl_FragCoord.w;