2

我在光线追踪中完全坚持使用相机。请看一下我的计算并指出错误在哪里。我正在使用左手坐标系。

x,y //范围 [0..S) x [0..S) //像素坐标

现在,让我们将像素坐标转换为相机平面的参数坐标:

xp = x/S * 2 – 1; 
yp = y/S * 2 – 1;

xp, yp // 范围 [-1..1] x [-1..1]

相机基础的计算:

//eye - camera position
//up - camera up vector
//look_at - camera target point

vec3 w = normalize(look_at-eye);
vec3 u = cross(up,w);
vec3 v = cross(w,u);

所以光线方向应该有以下坐标:

vec3 dir = look_at – eye + xp*u + yp*v;
ray3 ray = {eye, normalize(dir)};
4

1 回答 1

2

我认为错误在这里:

vec3 dir = look_at – eye + xp*u + yp*v;

图像平面应该有一个法线向量w,或者在眼睛和观察点之间(光线追踪器中更常见的方式),或者在眼睛后面(更接近地模拟实际的针孔相机)。所以让我们创建一个标量zoom_factor。正数会将平面放在眼睛前面,而负数会将平面放在眼睛后面(并翻转图像)。

因此图像平面的中心为:

eye + zoom_factor*w

(xp, yp)因此,图像平面上的一个点是:

eye + zoom_factor*w + xp*u + yp*v

现在,您希望方向是从眼睛到此图像平面上的这一点:

vec3 dir = eye + zoom_factor*w + xp*u + yp*v - eye;

eyes 取消,因此它简化为:

vec3 dir = zoom_factor*w + xp*u + yp*v

这假设xp每个yp都在 (-0.5, 0.5) 这样的范围内。请注意,(0, 0) 是这种排列的图像平面的中间。

于 2012-06-17T15:07:05.717 回答