我正在寻找示例代码,或者开始使用最新的 Azure Kinect DK 执行“绿屏”。
- 我应该如何继续构建和显示只有身体区域的颜色流?
- 是否可以避免使用身体流?因为它需要更强的(NVidia 电脑)
我正在寻找示例代码,或者开始使用最新的 Azure Kinect DK 执行“绿屏”。
我们刚刚发布了新的绿屏代码示例,作为我们的 GitHub 开源存储库 microsoft/Azure-Kinect-Sensor-SDK 的一部分。您可以在绿屏示例中找到更多信息
如果您对代码有任何疑问,可以打开 GitHub 问题。
我最近刚收到我的 Azure Kinect 设备,还没有尝试过一些我感兴趣的东西,所以这个回复不是来自直接经验,但是示例代码和 SDK 表明可能有一个可行的方法。
您始终可以尝试实现传统的颜色识别算法,但如果您的使用场景允许,您可以使用来自深度相机的数据仅过滤深度范围内的数据,而“绿屏”超出范围。然后,您可以将来自深度相机的像素与 RGB 图像数据相关联,以从颜色流中挑选出特定深度范围内的数据。此外,背景不必是真正的绿屏,而只是必须在过滤深度范围之外。
这种方法允许您使用传感器 SDK,而不需要身体跟踪 SDK 及其相关的 GPU 要求。