我正在开发一个将图形叠加到相机图像上的增强现实应用程序。使用 OpenCV Pose Estimator 和设备本身的 Intrinsic Camera Parameters,我能够生成一个相当不错的 OpenCV Camera Matrix 和 OpenGL Perspective Matrix,从而产生合理的结果。
然而,我的解决方案,以及我在这个论坛和其他 Internet 位置检查过的所有类似解决方案,只是对透视矩阵近距和远距参数使用一些有些随意的值(通常为 1.0 和 100)。
然而,虽然如果感兴趣的对象不太靠近,这通常是可以的,但当对象靠近视点时,它会变得更加不准确并且是失真的来源。
实际上,随着这两个参数(近、远)的调整,透视的消失点会发生变化。
有没有人有更合理的方法来从可用数据中推导出 Near 和 Far 参数?