我愿意为6个鱼眼相机进行360°全景拼接。
为了找到相机之间的关系,我需要计算单应矩阵。后者通常是通过在图像中找到特征并匹配它们来计算的。
但是,对于我的相机设置,我已经知道:
- 我通过相机校准计算的内在相机矩阵 K 。
- 外部相机参数 R 和 t。相机方向是固定的,在任何时候都不会改变。摄像机位于已知直径 d 的圆上,每个摄像机相对于圆偏移 60°。
因此,我认为我可以手动计算 Homography Matrix,我假设这会产生比执行特征匹配更准确的方法。
在文献中,我发现了以下公式来计算将图像 2 与图像 1 相关联的单应矩阵:
H_2_1 = (K_2) * (R_2)^-1 * R_1 * K_1
这个公式只考虑了相机之间的旋转角度,而不是我的例子中存在的平移向量。
如何将每个相机的平移 t 插入 H 的计算中?
我已经尝试在不考虑平移的情况下计算 H,但是由于 d>1 米,图像在全景图片中没有准确对齐。
编辑:
根据下面弗朗切斯科的回答,我得到了以下问题:
校准鱼眼镜头后,我得到了一个
K
焦距f=620
为 1024 x 768 的图像的矩阵。这被认为是大焦距还是小焦距?我的相机位于直径为 1 米的圆圈上。下面的解释让我很清楚,由于相机之间的这种“大”平移,我对相对靠近它们的物体产生了显着的重影效果。因此,如果 Homography 模型不能完全代表相机的位置,是否可以使用其他模型,例如 Fundamental/Essential Matrix 进行图像拼接?