我已经开始了一个使用视频创建长场景的线性/条形全景图的项目。这意味着全景图不围绕中心旋转,而是平行于场景移动,例如。安装在车辆上的视频摄像头垂直于街道立面。
我将遵循的步骤是:
- 从视频中捕获帧
- 特征检测 - (SURF)
- 特征跟踪 (Kanade-Lucas-Tomasi)
- 单应性估计
- 拼接马赛克。
到目前为止,我已经能够从视频中保存单个帧并仅在两张图像上完成 SURF 特征检测。我不是要求有人解决我的整个项目,但我一直在尝试完成对捕获的剩余帧的 SURF 检测。
问题:如何将 SURF 检测应用于连续帧?我将其保存为 YAML 还是 xml?
对于我的特征检测,我使用了 OpenCV 的示例 find_obj.cpp 并只是更改了使用的图像。
有没有人经历过这样的项目?我想实现的一个例子是来自 Iwane 技术http://www.iwane.com/en/2dpcci.php