我正在使用图像实现 3d 点估计的新算法,现在我正在尝试在 3d 虚拟模型上对其进行测试,然后再转向真实对象。
算法输入是最后一次转换为视口大小之前的像素,因此要在渲染图像上测试算法,我需要知道形状中像素的反向转换([0,witdh],[0,height])。
我正在使用 pyrender 库中的透视投影来渲染 3d 网格的 2d 图像,据我所知,这个库使用 OpenGL 方法进行渲染。
示例:我有一个尺寸=(3,1,5), center=(0,0,0) 的盒子网格,并且我有投影和视图矩阵
View Matrix= [[ 0.96592583, -0.0669873 , 0.25 , 3. ],
[ 0. , 0.96592583, 0.25881905, 4. ],
[-0.25881905, -0.25 , 0.9330127 , 10. ],
[ 0. , 0. , 0. , 1. ]]
Projection Matrix= [[ 2.4142135, 0. , 0. , 0. ],
[ 0. , 2.41421356, 0. , 0. ],
[ 0. , 0. , -1.0010005 , -0.10005003],
[ 0. , 0. , -1. , 0. ]]
这是我将 3d 点/顶点映射到像素的计算:
def map_to_pixel(point3d,w,h,projection,view):
p=projection@view@point3d # openGL perspective projection
p=p/p[3] # divide by the w element
p[0]=w/2*p[0]+w/2 # transformation from [-1,1] -> [0,width]
p[1]=h/2*p[1]+h/2 # transformation from [-1,1] -> [0,height]
return p
当 viewport_sizes=(width,height)=(512,512)
结果=
[150.86775635, 4.28475523, 1.00894365, 1. ]
= (151,4)
当 pyrender 对该顶点的实际结果是像素时 ~ (90,342)
如果有人知道 pyrender/OpenGL 幕后的实际过程,或者知道如何正确映射像素,那将非常有帮助。
顺便说一句:当库使用左上映射时,我知道我的函数使用左下映射,但它仍然给出了意外的输出。