4

我正在将我的 webgl 延迟渲染器转换为使用高动态范围的渲染器。我从网上的各种来源阅读了很多关于这个主题的内容,我有一些问题希望能得到澄清。我阅读的大部分内容都涉及 HDR 图像渲染,但我的问题与渲染器可能必须如何更改以支持 HDR 有关。

据我了解,HDR 本质上是在尝试捕捉更高的光照范围,以便我们可以在极亮或极暗的场景中看到细节。通常在游戏中,我们使用强度 1 表示白光,使用 0 表示黑光。但在 HDR / 现实世界中,范围要多样化得多。即引擎中的太阳可能比 10 的灯泡亮 10000 倍。

为了应对这些更大的范围,您必须将渲染器转换为使用浮点渲染目标(或者理想情况下是半浮点,因为它们使用较少的内存)进行光通道。

我的第一个问题是关于照明的。除了浮点渲染目标之外,这是否仅仅意味着如果以前我有一个代表太阳的光,它的强度为 1,它现在可以/应该表示为 10000?IE

float spec = calcSpec();
vec4 diff = texture2D( sampler, uv );
vec4 color = diff * max(0.0, dot( N, L )) * lightIntensity + spec; //Where lightIntensity  is now 10000?
return color;

照明系统是否有任何其他基本变化(除了浮动纹理和更高范围)?

在此之后,我们现在有一个浮动渲染目标,它累加了所有的光照值(如所描述的在较高范围内)。在这一点上,我可能会对渲染目标进行一些后期处理,比如绽放。完成后,现在需要对其进行色调映射,然后才能将其发送到屏幕上。这是因为光线范围必须转换回我们显示器的范围。

所以对于色调映射阶段,我大概会使用后期处理,然后使用色调映射公式将 HDR 照明转换为低动态范围。我选择的技术是来自 Uncharted 2 的 John Hables:

const float A = 0.15;
const float B = 0.50;
const float C = 0.10;
const float D = 0.20;
const float E = 0.02;
const float F = 0.30;
const float W = 11.2;

vec3 Uncharted2Tonemap(vec3 x)
{
    return ((x*(A*x+C*B)+D*E)/(x*(A*x+B)+D*F))-E/F;
}

... // in main pixel shader

vec4 texColor = texture2D(lightSample, texCoord );
texColor *= 16;  // Hardcoded Exposure Adjustment 
float ExposureBias = 2.0;
vec3 curr = Uncharted2Tonemap( ExposureBias * texColor.xyz );
vec3 whiteScale = 1.0 / Uncharted2Tonemap(W);
vec3 color = curr * whiteScale;
 // Gama correction
color.x = pow( color.x, 1.0 /2.2 );
color.y = pow( color.y, 1.0 /2.2 );
color.z = pow( color.z, 1.0 /2.2 );
return vec4( color, 1.0 );

色调映射文章

我的第二个问题与这个色调映射阶段有关。除了这种技术之外,还有更多的东西吗?只是简单地使用更高的光强度并调整曝光所有这些都需要被视为 HDR - 还是还有更多?我知道有些游戏有自动曝光功能来计算平均发光量,但最基本的需要这个吗?大概你可以使用手动调整曝光?

许多文档中讨论的其他内容是伽马校正。伽马校正似乎在两个方面进行。首先是在读取纹理时,然后在将它们发送到屏幕时再次。当读取纹理时,它们必须简单地更改为如下内容:

vec4 diff = pow( texture2D( sampler, uv), 2.2 );

然后在上述色调映射技术中,输出校正通过以下方式完成:

pow(color,1/2.2);

从 John Hables 的介绍中,他说并非所有纹理都必须像这样进行校正。漫反射纹理必须如此,但法线贴图之类的东西不一定必须如此。

我的第三个问题是关于这个伽马校正。为了让它工作,这是必要的吗?这是否意味着我必须在所有读取漫反射贴图的地方更换引擎?

这就是我目前对这种转换所涉及的内容的理解。它是否正确,我有什么误解或错误吗?

4

1 回答 1

3

光计算/累积 是的,您通常能够保持您的闪电计算相同,并且将定向光的强度提高到 1.0 以上当然没问题。值可以超过 1 的另一种方法是将多个灯光的贡献简单地相加。

色调映射

你当然理解这个概念。有很多不同的方法可以进行实际映射,从更简单/天真的一种color = clamp(hdrColor * exposure)到您发布的更复杂(更好)的一种。

自适应色调映射很快就会变得更加复杂。再一次,天真的方法是通过使用最亮的像素来简单地归一化颜色,这肯定会导致难以/不可能感知图像较暗部分的细节。您还可以平均亮度和钳位。或者您可以保存最后几帧的整个直方图并在映射中使用它们。

另一种方法是仅用相邻像素的值对每个像素进行归一化,即“局部色调映射”。这通常不会在实时渲染中完成。

虽然听起来很复杂,但您发布的公式会产生非常好的结果,所以可以使用它。一旦你有了一个可行的实现,就可以在这里进行试验。也有很棒的论文可用:)

伽玛 现在伽玛校正很重要,即使您不使用 hdr 渲染。但不要担心,这并不难。

最重要的是始终了解您正在使用的色彩空间。就像没有单位的数字一样,没有色彩空间的颜色很少有意义。现在我们喜欢在着色器中使用线性 (rgb) 颜色空间,这意味着具有两倍 rgb 值的颜色应该是两倍的亮度。然而,这不是监视器的工作方式。

相机和照片编辑软件通常只是简单地向我们隐藏所有这些,并以显示器喜欢的格式(称为 sRGB)简单地保存图片。

sRGB 还有一个额外的优势,那就是压缩。我们通常以每通道每像素 8/16/32 位保存图像。如果您将图片保存在线性空间中并且图像中有小但非常亮的斑点,则您的 8/16/32 位可能不够精确,无法保存图像较暗部分的亮度差异,并且如果您再次显示它们(当然伽马正确)细节可能会在黑暗中丢失。

您可以更改保存在许多相机和程序中的图像的色彩空间,即使它有时有点隐藏。因此,如果您告诉您的艺术家将所有图像保存在线性 (rgb) 色彩空间中,您根本不需要对图像进行伽玛校正。由于 sRGB 和 sRGB 等大多数程序都提供更好的压缩,因此通常最好将描述颜色的图像保存在 sRGB 中,因此需要对这些图像进行伽马校正。描述法线贴图或凹凸贴图等值/数据的图像通常保存在线性颜色空间中(如果您的法线 [1.0, 0.5, 0.0] 只是没有 45 度角,每个人都会感到困惑;压缩优势也与非颜色)。

如果您想使用 sRGB 纹理,只需告诉 OpenGL,它会为您将其转换为线性色彩空间,而不会影响性能。

void glTexImage2D(  GLenum target,
  GLint level,
  GLint internalFormat,  // Use **GL_SRGB** here
  GLsizei width,
  GLsizei height,
  GLint border,
  GLenum format,
  GLenum type,
  const GLvoid * data);

哦,当然,您必须对发送到显示器的所有内容进行伽玛校正(因此从线性更改为 sRGB 或伽玛 2.2)。您可以在色调映射或其他后期处理步骤中执行此操作。或者让OpenGL为你做;看glEnable(GL_FRAMEBUFFER_SRGB)

于 2015-04-03T09:24:57.377 回答