他们试图做的是在亮度变化中跟踪特定颜色,因此他们正在对颜色的亮度进行归一化。我在基于 Apple 的 GPU Gems 论文以及我的GPUImage框架中的 ColorObjectTracking 示例应用程序的颜色跟踪示例中使用的片段着色器中做了类似的事情:
vec3 normalizeColor(vec3 color)
{
return color / max(dot(color, vec3(1.0/3.0)), 0.3);
}
vec4 maskPixel(vec3 pixelColor, vec3 maskColor)
{
float d;
vec4 calculatedColor;
// Compute distance between current pixel color and reference color
d = distance(normalizeColor(pixelColor), normalizeColor(maskColor));
// If color difference is larger than threshold, return black.
calculatedColor = (d > threshold) ? vec4(0.0) : vec4(1.0);
//Multiply color by texture
return calculatedColor;
}
上面的计算通过将每个通道乘以 1/3 然后将它们相加来取三个颜色分量的平均值(这就是点积在这里所做的)。然后,它将每个颜色通道除以该平均值,以得到归一化的颜色。
计算该归一化颜色与目标颜色之间的距离,如果它在某个阈值内,则将像素标记为该颜色。
这只是确定一种颜色与另一种颜色接近度的一种方法。另一种方法是将 RGB 值转换为 Y、Cr 和 Cb(Y、U 和 V)分量,然后仅计算色度部分(Cr 和 Cb)之间的距离:
vec4 textureColor = texture2D(inputImageTexture, textureCoordinate);
vec4 textureColor2 = texture2D(inputImageTexture2, textureCoordinate2);
float maskY = 0.2989 * colorToReplace.r + 0.5866 * colorToReplace.g + 0.1145 * colorToReplace.b;
float maskCr = 0.7132 * (colorToReplace.r - maskY);
float maskCb = 0.5647 * (colorToReplace.b - maskY);
float Y = 0.2989 * textureColor.r + 0.5866 * textureColor.g + 0.1145 * textureColor.b;
float Cr = 0.7132 * (textureColor.r - Y);
float Cb = 0.5647 * (textureColor.b - Y);
float blendValue = 1.0 - smoothstep(thresholdSensitivity, thresholdSensitivity + smoothing, distance(vec2(Cr, Cb), vec2(maskCr, maskCb)));
此代码是我在色度键控着色器中使用的代码,它基于 Apple 在其示例应用程序之一中使用的类似计算。哪个最好取决于您所面临的特定情况。