2

我一直在为深度相机开发一个虚拟相机应用程序,我对 Tango 项目非常感兴趣。我有几个关于机上摄像头的问题。我似乎在开发者部分或论坛的任何地方都找不到这些规范,所以如果这些不能公开回答,我完全理解。我想我会问,看看当前的设备是否适合我的应用程序。

  • RGB/IR 相机的深度和彩色图像是否同时捕获?
  • rgb/ir 的帧速率是多少?例如 30、25、24?在什么决议?
  • 运动跟踪摄像头是否与 RGB/IR 摄像头同步运行?如果不是,运动跟踪相机运行的帧速率(或刷新率)是多少?此外,如果它们不在同一时钟上运行,API 是否会为两个相机公开相对或绝对时间戳?
  • 彩色相机有哪些手动控制(如果有)?帧率、增益、曝光时间、白平衡?
  • 如果彩色相机是全自动的,它会在光线不足的情况下自动降低帧率吗?

非常感谢您的参与!

编辑:我专门指的是新平板电脑。

4

1 回答 1

2

一些猜测

不,用于生成点云的实际图像不是您想要的机器人 - 我在 Google+ 上放了一张图片,显示了当您获得其中一张具有用于计算深度的 IR 模式的图像时所得到的结果(旁白 -对我来说,它看起来有点像塞尔宾斯基曲线

图像帧率远高于点云帧率,但似乎是可变的 - 可能是 Tango 施加的负载的函数

运动跟踪,即姿势,以大约 3 倍于姿势云速率的速率捕获

时间戳是用最迷人的双精度数字完成的——在以前的版本中,双精度的 lsb 中肯定有工件/数据——当我拿起云时,我做了一个 getposeattime(用于 ADF 本地化的回调),所以我想我已经得到了与云对齐的姿势 - 图像与姿势和云数据的时间戳对应性非常低 - 非常重要的是要注意 3 个探戈流(姿势、图像、云)都返回时间戳

还不知道相机控制 - 仍然将 OpenCV 嵌入云服务 :-) 低光会很有趣 - 轶事数据表明 Tango 比我们拥有更宽的可视光谱,这让我想知道是否摆弄相机改变图像质量的捕获点,例如降低帧速率,可能不会导致 Tango 问题

于 2015-02-20T13:31:38.607 回答