问题标签 [object-recognition]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c# - 如何从 Kinect 深度数组中获取位置 (x,y)?
在使用 kinect 时,我发现位图及其深度信息不可靠,并且由于某种原因比实际字节数组中的数据更受干扰。
当我尝试通过访问这样的位图来获取最小值和最大值时,我意识到了这一点
但另一方面,当我使用这种方法直接访问深度字节数组时(正如 Stackoverflow 成员 Chris 指出的,谢谢你,Chris),我取得了更好的结果:
我的问题是:
- 我想计算一定距离间隔内的所有点。
- 然后我想得到他们的实际位置(x,y)。
我怎样才能获得位置或直接将这些点添加到列表中 - 以采取进一步行动?
我的最终目标是通过计算特定区间内的像素数来识别特定的预定义对象(例如,将球与块区分开来)。
algorithm - 如何识别图像中的 UI 元素?
我正在尝试制作一个自动化工具,并且正在尝试一种录制屏幕截图并记录用户输入的录制类型。这个想法是让用户拍摄快照并在“提交”按钮的快照上突出显示一个正方形。在播放过程中,程序会对打开的窗口进行截图,并通过搜索截图找到按钮的坐标。所以我需要一种算法来搜索图像以获得按钮的精确(或非常接近)图像。到目前为止,我发现的算法比较图像相似度,但无法在子图像中找到它,考虑到我试图找到的“对象”将是近乎完美的匹配,对象识别算法似乎有点过头了。有任何想法吗?
opencv - 在openCV中检测窗口
我正在尝试检测窗户(real-life-house-windows)。使用角点检测并不总是足够的。所以我试图找出一种模式来识别窗户。我认为同时检测光差(来自窗户的太阳)可能是一个好主意。但是我无法区分这些数据。您能否分享您对我可以为检测窗口的模式定义哪些特定功能的想法?
image-processing - 物体检测/物体识别?
我对对象识别和对象检测之间的区别有点混淆。有人说物体检测是物体识别的一个子课题?有人可以澄清这两个主题之间的区别吗?
尽我所知。
对象识别是在回答“图像中的对象是什么”这个问题,而对象检测是在回答“那个对象在哪里”这个问题?
希望有人可以通过也慷慨地为每个人提供一个例子来说明差异
opencv - 如何使用两个不同的级联分类器进行检测
我正在尝试使用两个不同的级联分类器识别两个不同的对象。我修改了人脸识别示例,但我遇到了一个问题:当我尝试从 object1.xml 识别对象时,它会打印两个矩形,当我尝试从 object2.xml 识别对象时,它不会打印任何内容...
问题出在哪里??
>
或者有一种方法可以从同一个 .xml 中检测不同的对象?
解决了
我以这种方式更新我的代码:
这就是结果:http: //i43.tinypic.com/15eqvl.png
android - 我所有关于 opencv_traincascade 的问题
我尝试创建一个好的级联分类器已经有几个星期了,但似乎这个过程被神秘所包围。我有很多问题:
1)为什么opencv给我们的信息这么少?
2)它需要更多的正面图像还是负面图像?
3)什么尺寸应该有正面图像?和负面形象?它们必须具有相同的大小吗?
4)如果我想为单个路标创建分类器就足够像这样的单个正图像来使用opencv_createsamples创建样本?
5)创建一个在android应用程序上使用的分类器是更好的Haar还是LBP?
6) 正确的阶段数是多少?
7) minHitRate 和 maxFalseAlarmRate 的正确值是多少?
matlab - 如何计算图像中靠近圆形物体的数量
我有一个类似于下面的图像。在那我需要找到所有的红色圆圈并计算它们。所以,我正在考虑使用带有图像处理工具包的 MATLAB R2011a。我怎么可能提取它们?
c++ - 我应该使用哪种对象识别算法?
我对简历很陌生,所以请原谅我的愚蠢问题......
我想要做什么:
我想在实时视频中识别一架 RC 飞机(目前它只是一个录制的视频)。
到目前为止我做了什么:
- 帧之间的差异
- 将其转换为灰度
- 高斯模糊
- 临界点
- 查找轮廓
以下是一些示例框架:
但是也有带噪点的帧,所以帧中的物体比较多。
我以为我可以做这样的事情:
对找到的每个轮廓使用一些对象识别算法。并且只计算每个边界矩形的特征向量。
是否可以仅针对图像的特定补丁(较小部分)计算 SURF/SIFT/...?
由于算法能够处理实时视频很重要,我认为只有在我不一直看整个图像的情况下才有可能?!或者可能决定例如是否有超过 10 个边界矩形,我检查整个图像而不是每个矩形。
然后我将查看下一帧并尝试将我的特征向量与前一帧匹配。这样我就可以追踪我的对象。一旦这些物体越过图片中间的红线,它将触发另一个事件。但这在这里并不重要。
我需要确保并非所有越过或在红线后面的物体都触发了该事件。因此,至少需要有 2 或 3 个包含该对象的连续帧,如果它越过,那么只有这样才应该触发事件。
物体识别算法有这么多变种,我有点不知所措。Sift/Surf/Orb/...你明白我在说什么。
谁能给我一个提示,我应该选择哪一个,或者我正在做的事情是否有意义?
matlab - How to obtain part scores in Object Detection with Discriminatively Trained Part Based Models
The code which is available at http://www.cs.berkeley.edu/~rbg/latent/voc-release5.tgz is widely used in object detection. There is a imgdetect function which returns ds, bs and trees. It seems ds contains detection boxes and bs contains which of the filters used for detection responded in the image, while trees contains some information about the part scores. I was not able to find out how to get the part scores using trees and bs. Basically, given a detection box, I would like to find out which filters responded in detection and what was the score for each filter (sub part) which was used for detecting an object.
opencv - 轮廓与特征的对象识别
语境:
我有来自 Kinect 的 RGB-D 视频,它直接对准桌子。有一个包含大约 12 个对象的库,我需要一次识别一个或多个对象。我一直在从 RGB 图像中提取和检测 SURF,在应用 SURF 之前通过缩小到 320x240、灰度、拉伸对比度和平衡直方图进行预处理。我构建了一个套索工具,用于在视频图像静止图像中检测到的关键点中进行选择。然后这些关键点用于构建对象描述符,用于识别实时视频馈送中的对象。
问题:
SURF 示例显示成功识别具有大量类似文本的特征细节的对象,例如。标志和图案。我需要识别的对象相对简单,但具有独特的几何形状。在我的剧照中发现的 SURF 特征有时是一致的,但大多是不重要的表面特征。例如,假设我有一个木制立方体。SURF 在一张面上检测到一些颗粒,然后在其他面上失败。我需要检测(类似的东西)有四个等距和直角的角。我的所有物品都没有太多图案,但都有独特的对称几何形状和颜色。想想手机、棒棒糖、刀、保龄球。我的想法是,我可以为对象的每个显着不同的方向构建对象描述符,例如。保龄球瓶的两个描述符:一个站着,一个躺着。对于手机,一个放在前面,一个放在后面。我的识别器需要旋转不变性和一定程度的尺度不变性,以防对象堆叠。处理一些遮挡的能力是可取的(SURF 表现得足够好),但不是最重要的特征。倾斜不变性会更可取,并且 SURF 可以很好地处理我的对象的纸质打印输出。
问题:
我是否使用错误的 SURF 参数来查找错误比例的特征?这种物体识别有更好的算法吗?有没有像 SURF 一样容易使用的东西,它使用来自 Kinect 的深度数据以及或代替 RGB 数据?