我看到一个关于反向投影 4 个 2D 点以导出 3D 空间中矩形角的问题。对于同样的问题,我有一种更一般的版本:
给定焦距(可以求解以产生弧秒/像素)或固有相机矩阵(定义正在使用的针孔相机模型的属性的 3x2 矩阵 - 它与焦距直接相关),计算相机射线穿过每个像素。
我想拍摄一系列帧,从每一帧中导出候选光线,并使用某种迭代求解方法从每一帧中导出相机姿势(当然,给定足够大的样本)......所有其中实际上只是广义霍夫算法的大规模并行实现......它首先获得了我遇到问题的候选光线......
我看到一个关于反向投影 4 个 2D 点以导出 3D 空间中矩形角的问题。对于同样的问题,我有一种更一般的版本:
给定焦距(可以求解以产生弧秒/像素)或固有相机矩阵(定义正在使用的针孔相机模型的属性的 3x2 矩阵 - 它与焦距直接相关),计算相机射线穿过每个像素。
我想拍摄一系列帧,从每一帧中导出候选光线,并使用某种迭代求解方法从每一帧中导出相机姿势(当然,给定足够大的样本)......所有其中实际上只是广义霍夫算法的大规模并行实现......它首先获得了我遇到问题的候选光线......
我的一个朋友从一所大学找到了 PhotoSynth 中相机匹配的源代码。如果我是你,我会用谷歌搜索它。
稍微摸索了一下,不是外在矩阵告诉你相机在 3 空间中的实际位置吗?
我在一家做很多此类事情的公司工作,但我总是使用算法人员编写的工具。:)
这是一个很好的建议......我肯定会研究它(光合成器重新激发了我对这个主题的兴趣 - 但我已经为 robochamps 研究了几个月) - 但它是一个稀疏的实现 - 它寻找“好” 特征(应该在同一图像的其他视图中很容易识别的图像中的点),虽然我当然计划根据匹配的特征的好坏对每个匹配进行评分,但我希望全密集算法推导出每个像素...或者我应该说体素哈哈?