我有一个使用 OpenCV 和 Python 校准的立体校准相机系统。我正在尝试使用它来计算图像点的 3D 位置。我收集了内在和外在矩阵,以及 E、F、R 和 T 矩阵。我对如何将 2D 图像点三角测量到 3D 对象点感到困惑。我已经阅读了以下帖子,但我对这个过程感到困惑(在校准的立体视觉设备中,如何获得实现 3D 三角测量算法所需的“相机矩阵”?)。有人可以解释如何从 2D 到 3D 吗?通过阅读,我觉得基本矩阵(F)很重要,但我还没有找到一种明确的方法将它与投影矩阵(P)联系起来。有人可以指导我完成这个过程吗?
我很感激我能得到的任何帮助。