我正在努力使用 Nuke NDK 计算从 3d 到 2d 渲染相机的准确投影点。我有一个动态的数据量(对于下面的测试,我只是使用一个恒定的 8 个点),我正在计算这些数据,因此为此目的将协调节点打包在一个小工具中似乎是不切实际的。
我一直在尝试效仿这个nukescripts.snap3d.projectpoint
例子,但到目前为止,我已经很不满意了。
我得到的数据示例:
PointA:
(3D) { -127.91322327, 56.28646469, 336.15023804 }
(2D) { 901.65655518, 65.55204773 }
PointF:
(3D) { -127.91322327, 90.09331512, 372.51187134 }
(2D) { 522.12438965, 22.69236374 }
通过Reconcile3d
节点的数据:
PointA: { 469.26919556, -1.9122355 }
PointF: { 522.12438965, 188.99978638 }
谁能看到我在数学上失败的地方。我没想到会遇到这些问题,但仅仅在这些预测上就被困了将近 2 天。谢谢。
//has camera && point data
if (input1() && input0()) {
const Format *format = input0()->deepInfo().format();
Matrix4 xform = input1()->imatrix(); // also tried the non-inverse matrix
Matrix4 projection = input1()->projection() * xform;
float imageAspect = float(format->h()) / float(format->w());
float pixelAspect = format->pixel_aspect();
for (int i = 0; i < 8; i++) {
int s = i * 3;
Vector4 v = projection * Vector4(
XYZ_values[s], XYZ_values[s + 1], XYZ_values[s + 2], 1.0f
);
float x = ((v.x / v.w) + 1) * 0.5;
float y = ((v.y / v.w) + (1- (1- imageAspect/pixelAspect))) * 0.5;
x *= float(format->w());
y *= float(format->w()) * pixelAspect;
XY_values.push_back(x);
XY_values.push_back(y);
}
}