2

我正在研究一个传感器网格,它基于(目前)没有比相机更复杂的东西。将来,我想包括对基于 Kinect 的设备以及其他传感器设备(即麦克风、无线电接收器等)的支持,但目前我正在尝试开始。

我已经让系统跟踪由摄像机观察到的点,进入 3D 环境,但是没有房间的其他部分,这非常棘手。

那么,是否有任何我可以使用的现有项目用于将来自多个相机(在我的测试场景中,5 个相机)的输出图像转换为半精确的 3D 环境,它将:

1) create the geometry of the room
2) map the images from the cameras into textures that can be overlaid

生成给定环境的单个/集合 3D 模型?

ps

该系统的最终目标是创建我家的实时 3D 环境,同时跟踪人和宠物的移动……这是一个崇高的想法/白日梦,但这将是一个很好的概念证明。我只是希望它不需要大量的计算机硬件

4

3 回答 3

4

查看 Bundler:http ://www.cs.cornell.edu/~snavely/bundler/ 。这将为您提供稀疏点几何形状并计算出相机外在因素。

还有 PCL 项目(还没有机会使用它,但看起来很棒):http ://www.pointclouds.org/

于 2013-11-08T15:58:59.987 回答
1

看看OpenCV中使用的一些 3d 重建函数。如果您希望使用固定相机(您可以在其中控制校准)执行此操作,它们具有许多可以进行立体重建的功能。还记录了将 Kinect 与 OpenCV 结合使用的方法。

Bundler 和 PMVS(以及 VisualSfM,它是 bundler/pmvs GUI-fied 使用 siftGPU)也是解决这个问题的很好的独立应用程序,但它们不容易合并到不同的项目中。此外,它们的开发理念是算法的输入将是大型照片集,或从多个方向对一个区域进行重要覆盖。如果您有 5 个固定位置,则可以控制相机校准并使用某些立体重建算法在几乎一个像素的像素级别上获得明显更好的重建。

于 2013-11-10T04:22:35.307 回答
0

在上面的评论中添加一些信息:

您可以使用 Visual SFM(基于 bundler 和 cmvs)创建密集的3D 重建:

http://ccwu.me/vsfm/

您还可以将 PMVS 与 Bundler 结合使用来生成密集点云: http ://www.di.ens.fr/pmvs/

还有用于 Windows 的 SFM+CVMS 分布(同样,产生密集的点云): https ://code.google.com/p/osm-bundler/downloads/detail?name=osm-bundler-pmvs2-cmvs-全32-64.zip

于 2013-11-09T16:42:26.270 回答