我一直在尝试按照本教程的说明实现屏幕空间环境光遮蔽。当我遇到它们时,我一直在解决我的实施问题,但是这个问题让我现在很难过。
我对方法的理解如下。环境遮挡因子由取自与给定片段法线对齐的半球内的样本确定。为了确定样本是否对环境遮挡因子有贡献,我必须根据视图空间深度纹理(包含在本文图片的左下角)检查样本在视图空间中的深度。所以我知道要从深度纹理中获取哪些坐标,我必须将样本的坐标从视图空间转换为标准化的设备坐标(在 [-1,1] 范围内),然后再转换为 [0 ,1],因此深度纹理有效地“映射”到视口。
下图是我的环境遮挡放置在我的场景上。我知道环境遮挡本身存在一个相当明显的问题(我假设半球的方向不正确),我会及时处理,但目前引起我好奇心的是遮挡的外观被“缩小” ',这表明我从视图空间样本坐标移动到纹理坐标的操作是不正确的。
由于我缺乏稳定的着色器调试器,我可以做的调试仅限于我可以渲染到屏幕上的内容。下一个图像是使用以下代码创建的,其中ndcs是给定样本的标准化设备坐标:
if (ndcs.x > 1.0f || ndcs.y > 1.0f || ndcs.x < -1.0f || ndcs.y < -1.0f)
{
gl_FragColor = vec4(1.0f, 0.0f, 0.0f, 1.0f);
}
else
{
gl_FragColor = vec4(vec3(1.0f), 1.0f);
}
我希望图像完全是白色的(或者更确切地说,我使用这个着色器的位),但是它似乎表明我正在创建的 NDC 超出了 [-1,1] 范围,我相信一定是不正确的。它也不是屏幕的一致区域,如下图所示,相机非常靠近表面:
我以前从来没有使用过这个程序来获得 NDC,所以我确信我的逻辑一定是有问题的。我已经下载了教程提供的演示代码,但我看不出我的代码有什么不同。我也在网上搜索过(包括在这个网站上),我似乎无法找到与我症状完全相同的人。
这是我的着色器中的相关代码:
垂直着色器:
v_eye_space_position = u_mvpMatrix * a_position;
v_world_space_normal = normalize(u_rotationMatrix * a_normal);
v_eye_space_normal = normalize(u_mvpMatrix * a_normal);
gl_Position = v_eye_space_position;
片段着色器:
// --- SSAO Testing ---
// Convert from the noise texture back to [-1,1] range
// We want the noise texture to tile across the screen.
vec3 kernel_rotation = (texture2D(s_noise, gl_FragCoord.xy * u_noise_scale) * 2.0f - 1.0f).xyz;
vec3 eye_space_tangent = normalize(kernel_rotation - v_eye_space_normal.xyz * dot(kernel_rotation, v_eye_space_normal.xyz));
vec3 eye_space_bitangent = cross(v_eye_space_normal.xyz, eye_space_tangent);
mat3 tbn = mat3(eye_space_tangent, eye_space_bitangent, v_eye_space_normal);
float ambient_occlusion = 0.0f;
const float hemisphere_radius = 0.05f;
for (int i=0; i<16; i++)
{
vec3 kernel_sample = tbn * u_ssao_kernel[i];
kernel_sample = kernel_sample * hemisphere_radius + v_eye_space_position.xyz;
// Project the sample position into screen space.
vec4 offset = vec4(kernel_sample, 1.0f);
offset = u_projection_matrix * offset;
offset.xy /= offset.w;
vec4 ndcs = offset;
offset.xy = 1.0f - (offset.xy * 0.5f + 0.5f);
// Find the depth at this sample point.
float sample_depth = texture2D(s_camera_depth, offset.xy).z;
// Check if the sample point is occluded.
float range_check = 0.0f;
float linear_eye_space_position = (v_eye_space_position.z - u_near_plane)/(u_far_plane - u_near_plane);
// Range check.
if (abs(linear_eye_space_position - sample_depth) < hemisphere_radius)
{
range_check = 1.0f;
}
float linear_kernel_sample_depth = (kernel_sample.z - u_near_plane)/(u_far_plane - u_near_plane);
if (sample_depth <= linear_kernel_sample_depth)
{
ambient_occlusion += 1.0f * range_check;
}
}
// Average and invert the ambient occlusion.
ambient_occlusion = 1.0f - (ambient_occlusion/16.0f);
我已经孤立地查看了每个元素,但看不到它们的问题。
- 我已经将片段自己的视图空间位置替换为投影(而不是样本的视图空间位置),我得到了相同的结果。
- 投影矩阵是我用来变换模型顶点的透视矩阵(我已经在我的顶点着色器中构建了 MVP 矩阵,以确保投影矩阵能够完整地到达着色器程序,并且确实如此)。
- 投影操作本身 - 这不是我以前做过的事情,但我已经阅读了网上的文章和有投影问题的人的问题,我看不出我做错了什么。
因此,我只能得出结论,我对透视投影的理解一定有一些基本的东西是有缺陷的,但我就是不知道是什么。如果你们中的任何人可以阐明问题或进一步的途径让我检查,我将不胜感激。如果我遗漏了任何有用的信息或我可以澄清的任何信息,请告诉我。