首先:感谢您花时间帮助我解决我的问题。非常感谢:)
我正在构建一个自然的用户界面。我希望该界面能够检测其上的多个(最多 40 个)对象。界面应该检测对象是否在画布上移动。表面上的实际物体是什么并不重要
或者它有什么颜色——只有物体的形状和位置是有意义的
到目前为止,我正在使用连接到我的计算机的网络摄像头和Processing的 blob 功能来检测界面表面上的对象(见图 1)。这对我要完成的工作有一些主要缺点:
我不希望用户看到相机或任何替代设备,因为这会分散用户的注意力。实际上表面应该是完全黑暗的。
每当我用手伸手重新排列界面上的对象时,斑点检测就会变得非常繁忙,并且正在识别没有直接接触画布的对象(我的手)。使用 Kinect 很难解决这个问题,因为深度功能无法通过玻璃/丙烯酸玻璃工作——如果我错了,请纠正我。
- 在 Arduino 控制的画布上安装几个 LED 会很好。不幸的是,LED 的光会干扰斑点检测。
- 由于相机的焦距,桌子需要过高(60 厘米/23 英寸)。
您对检测物体的替代设备/技术有任何想法吗?如果该设备能与 Processing 和 Arduino 一起工作,那就太好了。
提前致谢!:)