我使用 Kinect V2 传感器在我的代码中实现了绿屏(背景去除)功能。现在我需要检测眼睛、鼻子和嘴巴等面部点的位置。
绿屏在深度流中,因此使用FacePointsInColorSpace
方法我无法获得面部对象的正确位置。
还有一种FacePointsInInfraredSpace
方法可用于此,它还跟踪对象但显示错误的位置。很难理解红外线和深度蒸汽都有 512 * 424 的分辨率,所以为什么它不能检测到面部点的正确位置。
我FacePointsInInfraredSpace
在这里使用方法放置了我的 IR 流人脸点检测图像:
那么如何在红外流中获得面部点的正确位置,以便我可以在绿屏实现中使用它。
另外,我的另一个问题是当我们手动使用图像帧大小时如何获得正确的面点位置。在 1920 * 1080 分辨率下,它可以为面部点提供正确的图像帧跟踪,但现在如果我将帧大小设置为 960 * 540 或我想要设置的任何一个,那么我怎样才能获得面部点的正确位置。