我想使用 HoloLens 1 设备来模拟 HoloLens 2 提供的基本近距离交互。
具体来说,如何执行以下映射:
- 在“就绪”手势期间使用手部位置来控制 PokePointer?
- 在“点击并按住”手势期间使用手部位置来控制 GrabPointer?
由于 HL1 不跟踪手的方向,我希望这些估计需要类似于手部光线的示例。
我已经尝试根据上面的答案创建一个自定义指针,据我所知,它适用于手部光线,但不适用于戳/抓。
我还根据如何使用 Windows 混合现实控制器 [MRTK2] 模仿 HoloLens 2 手部跟踪中的 WMR 控制器示例创建了一个自定义戳指针。,并以相同的方式将其分配给 GGV 控制器,但不知何故,手似乎没有被检测到用于戳(或抓),仅用于手部射线。
(我正在使用 Grab 姿势,因为 HL1 在就绪手势期间似乎没有返回食指姿势,并且由于指针姿势似乎指的是 HL1 的凝视指针)