0

我想了解更多关于使用深度传感器(例如 kinect 或 Realsense RGB-D 开发套件)数据的增强现实应用程序中的遮挡。

我读到应该做的是将渲染对象的 z 缓冲区值与传感器的深度图值进行比较,并以某种方式掩盖这些值,以便只看到更接近用户的像素。有没有人有有什么资源或开源代码可以做到这一点或可以帮助我理解它吗?

更重要的是,我希望我的手(我检测为一个斑点)总是遮挡虚拟对象。难道没有更简单的选择吗?

4

1 回答 1

0

您可以将深度数据作为纹理上传,并将其绑定为渲染目标的深度缓冲区。

这需要将投影矩阵的近平面和远平面与深度传感器的最小值和最大值进行匹配。

如果渲染目标的大小与深度数据的大小不同,那么您可以在片段着色器中使用采样以及discard;何时将其遮挡。

于 2015-05-13T11:24:05.243 回答