我的场景中有一个点光源。我认为它工作正常,直到我用相机从不同角度观察被照亮的物体并发现光照区域在网格上移动(在我的例子中是简单的平面)。我正在使用典型的 ADS Phong 照明方法。我将灯光位置转换到客户端的相机空间,然后使用模型视图矩阵转换顶点着色器中的插值顶点。
我的顶点着色器如下所示:
#version 420
layout(location = 0) in vec4 position;
layout(location = 1) in vec2 uvs;
layout(location = 2) in vec3 normal;
uniform mat4 MVP_MATRIX;
uniform mat4 MODEL_VIEW_MATRIX;
uniform mat4 VIEW_MATRIX;
uniform mat3 NORMAL_MATRIX;
uniform vec4 DIFFUSE_COLOR;
//======= OUTS ============//
out smooth vec2 uvsOut;
out flat vec4 diffuseOut;
out vec3 Position;
out smooth vec3 Normal;
out gl_PerVertex
{
vec4 gl_Position;
};
void main()
{
uvsOut = uvs;
diffuseOut = DIFFUSE_COLOR;
Normal = normal;
Position = vec3(MODEL_VIEW_MATRIX * position);
gl_Position = MVP_MATRIX * position;
}
片段着色器:
//==================== Uniforms ===============================
struct LightInfo{
vec4 Lp;///light position
vec3 Li;///light intensity
vec3 Lc;///light color
int Lt;///light type
};
const int MAX_LIGHTS=5;
uniform LightInfo lights[1];
// material props:
uniform vec3 KD;
uniform vec3 KA;
uniform vec3 KS;
uniform float SHININESS;
uniform int num_lights;
////ADS lighting method :
vec3 pointlightType( int lightIndex,vec3 position , vec3 normal) {
vec3 n = normalize(normal);
vec4 lMVPos = lights[0].Lp ; //
vec3 s = normalize(vec3(lMVPos.xyz) - position); //surf to light
vec3 v = normalize(vec3(-position)); //
vec3 r = normalize(- reflect(s , n));
vec3 h = normalize(v+s);
float sDotN = max( 0.0 , dot(s, n) );
vec3 diff = KD * lights[0].Lc * sDotN ;
diff = clamp(diff ,0.0 ,1.0);
vec3 spec = vec3(0,0,0);
if (sDotN > 0.0) {
spec = KS * pow( max( 0.0 ,dot(n,h) ) , SHININESS);
spec = clamp(spec ,0.0 ,1.0);
}
return lights[0].Li * ( spec+diff);
}
我研究了很多教程,但没有一个对变换空间的整个过程给出详尽的解释。我怀疑它与我将光和顶点位置变换到的相机空间有关。在我的情况下,视图矩阵是创建于
glm::lookAt()
它总是否定“眼睛”向量,所以我的着色器中的视图矩阵已经否定了翻译部分。应该是这样的吗?有人可以详细解释它是如何在可编程管道中以正确的方式完成的吗?我的着色器是根据“OpenGL 4.0 Shading language cookbook”一书实现的。作者似乎也使用了相机空间。但它不能正常工作,除非这是它应该工作的方式......
我只是将计算移到世界空间中。现在点光保持在原地。但是如何使用相机空间实现相同的效果?