我正在尝试在 Open3D 教程中运行重建系统,其中包含使用 Android ARCoreacquireCameraImage
和acquireDepthImage
Google Pixel 3 捕获的 RGB 和深度图像。
重建系统:http ://www.open3d.org/docs/release/tutorial/reconstruction_system/index.html
从 ARCore 接收到的图像具有以下分辨率:
RGB:640 x 480
深度:160 x 90
这些图像不能直接输入到 Open3D 重建系统,因为它期望 RGB 和深度图像具有相同的分辨率。
我目前正在研究如何将低分辨率深度图像转换为与 RGB 图像相同的分辨率以输入到重建系统。如何做到这一点?