我想从移动相机的 2 张图像中计算深度信息。使用Sensor.TYPE_ROTATION_VECTOR
我对两个图像以及从 Img1 到 Img2 的相对四元数都有四元数。
图1
q1 = 0.7545 - 0.1137i - 0.2715j - 0.5865k
图2
q2 = 0.7706 - 0.2252i - 0.3511j - 0.4817k
相对四元蛋白是:
qr = -0.9850 + 0.0072i + 0.1329j - 0.1097k
也就是说,相对旋转矩阵是,
|0.9406 -0.2142 -0.2635 |
|0.2180 0.9758 -0.0150 |
|0.2604 -0.0433 0.9645 |
这是矩阵getPerspectiveTransform
给出的吗?
当我在 中使用这个 3x3 旋转矩阵时warpPerspective
,我得到一个几乎空白的图像,除了左上角的一些东西。(可能图像旋转的轴是错误的)。
我究竟做错了什么?
注意:两张图片之间也有一个小的翻译(抱歉图片不好)
编辑1:根据这个链接,对于我的第二代Moto G,我得到一个内在的相机矩阵,
K = |-3570 0 1632 |
| 0 3554.39 1218.65|
| 0 0 1 |