探戈项目是否每帧提取任何视觉特征(例如 ORB 或 SIFT/SURF)?或者整个点云只是从深度相机中提取的 3D 点。如果是这样,是否有可能知道他们使用的是哪种算法?只是角落吗?
我想转储 3D 点云以及相应的功能,并想知道这是否都可以实时进行。
探戈项目是否每帧提取任何视觉特征(例如 ORB 或 SIFT/SURF)?或者整个点云只是从深度相机中提取的 3D 点。如果是这样,是否有可能知道他们使用的是哪种算法?只是角落吗?
我想转储 3D 点云以及相应的功能,并想知道这是否都可以实时进行。
不幸的是,他们没有公开他们使用的功能。你得到的只是 XYZ + 信心。这是来自 C API 的实时点云回调:
TangoErrorType TangoService_connectOnPointCloudAvailable(
void(*)(void *context, const TangoPointCloud *cloud) TangoService_onPointCloudAvailable,
...
);
看:
TangoPointCloud
在这里定义:
顺便说一句,如果您将 Tango 的目标视为位于各种不同传感器和硬件平台之上的可移植 API,那么它们不会暴露底层深度估计方法的细节是有道理的。它可能会改变,从一个设备到下一个。
顺便说一句,他们还对 ADF(区域描述文件)格式的内部进行了保密。