问题标签 [object-recognition]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
histogram - 大型数据集的词袋对象识别
我正在用词袋直方图实现对象识别。直方图由每张图像 200 个“单词”组成,kmeans 来自描述符。问题是对于一个大型数据集,比如 5000 张图像,我们突然在直方图中有 200x5000=1,000,000 个单词。这意味着每个对象都将由一个 1,000,000 长度的直方图表示。
这在某些时候变得太大而且太麻烦了。有什么办法吗?
c++ - 眼睛检测和异常处理
这是我用来检测我的眼睛然后传输一些坐标的功能。
x1,x2,y2,y3 是全局变量,我正在使用 TCP/IP 套接字程序将数据传输到其他程序。问题是,一旦识别了眼睛,如果它们失去焦点,程序就会停止工作,并显示一条错误消息,指出存在一个在 for 循环中未处理的异常。如果我将 for 循环包含在 try-catch 块中,错误仍然存在。这可能是运行时异常。该怎么做才能摆脱它?
opencv - OpenCV:检测城市广场的人
我需要像这样在城市广场找到所有人或一群人。我使用CascadeClassifier.detectMultiScale
功能并通过equalizeHist
(正确的亮度和对比度)准备图像
如您所见,并非所有人都被发现。
在对我的描述中,haarcascade_fullbody.xml
我读到检测器仅支持正面和背面视图。
你知道这个问题的一些 haarcascades 集合,还是我需要更正我的代码并留下这个级联?
opencv - 通过边缘(或角)匹配识别对象?
为了学术目的,我想开发一个使用(除其他外)边缘或角落匹配的对象识别系统。
基本上我在我的模型图像上提取角信息,然后我尝试使用角信息在查询图像中找到这个对象。
你在 OpenCV 中有什么提示吗?
附言。我知道我可以使用 SIFT/SURF/ORB 但在这种情况下我需要匹配角或边缘
opencv - 评估兴趣点检测器时要考虑的标准
我想评估不同的兴趣点检测器,如 FAST、MSER、DOH 和 DOG,以检测特定类型物体的图像。
作为第一个标准,我提出了在某些条件下(如照明或规模)的可重复性。我认为看看一个点周围的哪种区域有利于选择作为兴趣点也很有趣。
对于这种评估,还有哪些需要考虑的标准?
pattern-matching - 从视频中提取关键帧以对带有一些查询的视频进行评分
我正在做一个计算机视觉项目,我们需要根据包含的一些对象、动物或查询定义的对象对视频进行评分。但是对于这个任务,我们首先要从视频中检索一些关键帧来处理。你知道有什么方法可以提取吗?我是这个主题的新手。
python - 对对象识别的点分布进行分类
我有一些需要分类的点。鉴于这些点的集合,我需要说明它们最匹配的其他(已知)分布。例如,给定左上角分布中的点,我的算法必须说明它们是否更适合第二、第三或第四分布。(由于方向相似,这里左下角是正确的)
我有一些机器学习的背景,但我不是专家。我正在考虑使用高斯混合模型,或者可能是隐马尔可夫模型(因为我之前已经将签名分类为这些类似的问题)。
对于使用哪种方法解决此问题,我将不胜感激。作为背景信息,我正在使用 OpenCV 和 Python,所以我很可能不必从头开始实现所选算法,我只需要一个指针来了解哪些算法适用于这个问题。
免责声明:我最初想在 StackExchange 的数学部分发布此内容,但我缺乏发布图像的必要声誉。我觉得如果不显示一些图像就无法清楚地表达我的观点,所以我将其发布在这里。我相信它仍然与计算机视觉和机器学习相关,因为它最终将用于对象识别。
编辑:
我阅读并考虑了下面给出的一些答案,现在想添加一些新信息。我不想将这些分布建模为单个高斯分布的主要原因是,最终我还必须能够区分分布。也就是说,可能有两个不同且独立的分布代表两个不同的对象,然后我的算法应该知道这两个分布中只有一个代表我们感兴趣的对象。
image-processing - 使用 OpenCV Haar 级联分类器查找形状
我在一些雷达数据中寻找抛物线。我正在使用 OpenCV Haar 级联分类器。我的正图像是 20x20 PNG,所有像素都是黑色的,除了那些追踪抛物线形状的图像——每个正图像一个抛物线。
我的问题是:这些积极因素会训练分类器来寻找带有抛物线的黑盒子,还是会训练分类器来寻找抛物线形状?
我应该在正面图像中添加一层中等值的噪点,还是应该不切实际地清晰和高对比度?
这是原始数据的示例。
这是我使用 GIMP 执行简单边缘检测后的数据示例。抛物线形状在白框中突出显示
这是我的正面形象之一。
c++ - 从低对比度背景中提取对象
我需要从背景几乎平坦的图像中提取对象...
例如,考虑在白色大桌面上的一本书。我需要获取书的 4 个角的坐标来提取 ROI。
您会建议使用哪种 OpenCV 技术?我正在考虑使用 k 手段,但我无法先验地知道背景的颜色(对象内部的颜色也可能不同)
pattern-matching - 对象模式训练和识别(基于图像)
是否有任何用于对象模式训练和识别的 c/c++ 库?我需要实现类似于 Google Goggles (http://www.google.com/mobile/goggles/#text) 所做的特性和功能