我花了几个月的时间研究和实验关键点检测、描述和匹配的过程。在上一期中,我还研究了增强现实背后的概念,即“无标记”识别和姿势估计。
幸运的是,我发现之前的概念在这个环境中仍然被广泛使用。以下是创建基本增强现实的常用管道,无需详细介绍每种所需算法:
在拍摄视频时,在每一帧...
- 获取一些关键点并创建它们的描述符
- 在这些点与之前保存的“标记”(如照片)中的点之间找到一些匹配项
- 如果匹配足够,估计可见对象的位姿并玩弄它
也就是说,例如,这个学生(?)项目使用的一个非常简化的过程。
现在的问题是:在我的个人研究中,我还发现了另一种称为“光流”的方法。我仍处于研究的开始阶段,但首先我想知道它与以前的方法有多大不同。具体来说:
- 它背后的主要概念是什么?它是否使用之前大致描述的算法的“子集”?
- 在计算成本、性能、稳定性和准确性方面的主要区别是什么?(我知道这可能是一个过于笼统的问题)
- 其中哪一种在商业 AR 工具中使用得更多?(junaio,Layar,...)
谢谢你的合作。