我正在研究一个传感器网格,它基于(目前)没有比相机更复杂的东西。将来,我想包括对基于 Kinect 的设备以及其他传感器设备(即麦克风、无线电接收器等)的支持,但目前我正在尝试开始。
我已经让系统跟踪由摄像机观察到的点,进入 3D 环境,但是没有房间的其他部分,这非常棘手。
那么,是否有任何我可以使用的现有项目用于将来自多个相机(在我的测试场景中,5 个相机)的输出图像转换为半精确的 3D 环境,它将:
1) create the geometry of the room
2) map the images from the cameras into textures that can be overlaid
生成给定环境的单个/集合 3D 模型?
ps
该系统的最终目标是创建我家的实时 3D 环境,同时跟踪人和宠物的移动……这是一个崇高的想法/白日梦,但这将是一个很好的概念证明。我只是希望它不需要大量的计算机硬件