1

我正在努力使用 Nuke NDK 计算从 3d 到 2d 渲染相机的准确投影点。我有一个动态的数据量(对于下面的测试,我只是使用一个恒定的 8 个点),我正在计算这些数据,因此为此目的将协调节点打包在一个小工具中似乎是不切实际的。

我一直在尝试效仿这个nukescripts.snap3d.projectpoint例子,但到目前为止,我已经很不满意了。

我得到的数据示例:

PointA: 
(3D) { -127.91322327, 56.28646469, 336.15023804 } 
(2D) { 901.65655518, 65.55204773 }

PointF: 
(3D) { -127.91322327, 90.09331512, 372.51187134 }
(2D) { 522.12438965, 22.69236374 }

通过Reconcile3d节点的数据:

PointA: { 469.26919556, -1.9122355 }
PointF: { 522.12438965, 188.99978638 }

谁能看到我在数学上失败的地方。我没想到会遇到这些问题,但仅仅在这些预测上就被困了将近 2 天。谢谢。

//has camera && point data

if (input1() && input0()) {
    const Format *format = input0()->deepInfo().format();
    Matrix4 xform = input1()->imatrix(); // also tried the non-inverse matrix
    Matrix4 projection = input1()->projection() * xform;

    float imageAspect = float(format->h()) / float(format->w());
    float pixelAspect = format->pixel_aspect();

    for (int i = 0; i < 8; i++) {
        int s = i * 3;
        Vector4 v = projection * Vector4(
            XYZ_values[s], XYZ_values[s + 1], XYZ_values[s + 2], 1.0f
        );

        float x = ((v.x / v.w) + 1) * 0.5;
        float y = ((v.y / v.w) + (1- (1- imageAspect/pixelAspect))) * 0.5;                         
         x *= float(format->w());
         y *= float(format->w()) * pixelAspect;

         XY_values.push_back(x);
         XY_values.push_back(y);
     }
}
4

0 回答 0