问题标签 [cbir]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 使用python从图像中提取对象
我想从图像中提取对象。例如,我想计算图片中的人或在大型数据库中找到相似的图片(如谷歌示例)或查找图片的字段(办公室或家庭的性质)等。
你知道任何 python 库或模块来完成这项工作吗?如果可以链接我
- 这项工作的教程或指导
- 类似的示例项目
image - 带有词袋的图像检索 (CBIR)
我想使用词袋进行基于内容的图像检索。我对如何将词袋应用于基于内容的图像检索感到困惑。澄清:
我已经使用 SURF 特征训练了我的程序并提取了 BoW 描述符。我将其作为训练数据提供给支持向量机。然后,给定一张查询图像,支持向量机可以预测给定图像属于哪个类别。
换句话说,给定一个查询图像,它可以找到一个类。例如,给定汽车的查询图像,程序将返回“汽车”。如何找到相似的图像?
给定班级,我会从训练集中返回图像吗?或者程序——给定一个查询图像——也会返回一个测试集的子集,SVM 在该子集上预测相同的类?
algorithm - 基于内容的图像检索资源
我看过很多CBIR(基于内容的图像检索)的论文。我想找到一本电子书或其他资源,其中包含该领域最重要或最著名的算法的所有理论和解释。
欢迎任何建议。
谢谢!
java - 使用 pHash 搜索一个巨大的图像数据库,最好的方法是什么?
我需要搜索一个巨大的图像数据库以使用 pHash 查找可能的重复项,假设这些图像记录具有使用 pHash 生成的哈希码。
现在我必须比较一个新图像,并且我必须使用 pHash 针对现有记录创建散列。但据我了解,has 比较并不像
看起来我需要将两个哈希码都传递到 pHash API 中进行匹配。所以我必须分批从 DB 中检索所有哈希码,并使用 pHash API 进行一一比较。
但是,如果我有大约 1000 张图像在队列中与数百万已经存在的图像进行比较,这看起来不是最好的方法。
我需要知道以下内容。
- 我对使用 pHash 与现有图像数据库进行比较的理解/方法是否正确?
- 有没有更好的方法来处理这个问题(不使用像 lire 这样的 cbir 库)?
- 我听说有一种称为 dHash 的算法,它也可以用于与哈希码进行图像比较。是否有任何 Java 库可以用于此,可以与 pHash 一起使用来优化大图像和重复图像处理任务的任务。
提前致谢。
c++ - 使用 OpenCV 检测视频中的特定(定性)颜色
所以:我有这个 OpenCV 程序,它从摄像头捕获视频,并将其显示在两个窗口上。一种没有颜色检测;另一个突出显示某些特定颜色(例如红色)。
我需要的是一种方法来确定图像在特定时间是否包含该特定颜色。现在,第一个窗口只是一个普通的视频输出。第二个窗口全黑,直到看到与我指定的颜色匹配的对象,这使得对象在第二个窗口中显示为白色。
我想知道何时检测到它,然后输出“检测到”或“未检测到”。
我该怎么做呢?我想我会遍历修改后图像的宽度和高度,然后检查,但我不知道该怎么做。任何帮助表示赞赏 - 我几天来一直试图找到这个问题的答案,但没有运气。我检查了 StackOverflow,但它没有为我提供我需要的东西。谢谢!
代码:
image - 一种距离度量,用于查找不可变变换(旋转和缩放)的两幅图像之间的相似性 强度差异
我想要一个距离度量来找到图像之间的相似性。 我到目前为止所尝试的: 1)我使用了低级别的距离度量,例如归一化互相关(这会根据一些阈值检索相似的图像),但它无法检索旋转或移动的图像。但是,如果降低了特定图像的亮度,则即使它们属于同一类型,也不会检索到这些图像。2)Bhattacharya 系数:它检索旋转或移位的图像,但不检测强度(亮度)降低的图像。3) 尝试使用 SURF 等全局特征,它为旋转(30 度)和变换图像提供帮助,但对具有强度差异的图像没有帮助。
我需要什么:我需要一个用于图像相似性的距离度量,它可以识别那些亮度降低的图像以及所有经过变换(旋转和移动)的图像。我想要这两个指标(互相关)+(巴塔查里亚系数)的组合。互信息会在这个问题上帮助我吗?或者任何人都可以向我建议一个新的度量标准来衡量这个问题的相似性。尝试用广泛的问题和不相关的答案进行谷歌搜索。任何人都可以在这里指导我。提前谢谢。
image-processing - 提取图像属性
我正在做一个计算机视觉项目,我需要一些帮助。我的项目的目标是提取任何对象的属性——例如,如果我有一只耐克跑鞋,我应该能够首先判断它是一只鞋,然后再判断它是一只耐克鞋而不是阿迪达斯鞋(可能是因为耐克勾号),然后弄清楚它是跑鞋而不是足球鞋钉。
我首先将其视为图像分类问题,我正在使用以下步骤:
- 我已经采集了鞋子、高跟鞋、手表的训练样本(每个大约 60 个),并使用 Dense SIFT 提取了它们的特征。
- 使用 k-means 聚类创建词汇表(任意选择词汇表大小为 600)。
- 为图像创建词袋表示。
- 训练一个 SVM 分类器以获得每个类别(鞋、鞋跟、手表)的词袋(特征向量)。
- 为了测试,我提取了测试图像的特征向量,并从已经创建的词汇表中找到了它的词袋表示。
- 我将测试图像的词袋与每个类的词袋进行比较,并返回最匹配的类。
我想知道我应该如何从这里开始?使用 D-SIFT 进行特征提取是否会帮助我识别属性,因为它仅代表某些点周围的梯度?
有时,我的分类会出错,例如,如果我用左鞋和手表的图像训练分类器,右鞋被分类为手表。我知道我必须在我的训练集中包含正确的鞋子来解决这个问题,但是我应该遵循其他方法吗?
还有什么方法可以理解形状吗?例如,如果我训练了手表分类器,并且训练集中有圆形和矩形表盘的手表,我可以识别任何新测试图像的形状吗?还是我只是为圆形和矩形表盘的手表单独训练?谢谢
computer-vision - 图像分类问题
我的目标是将图像分类到我的目录中的几个预定义类别之一(运动鞋、衬衫、高跟鞋、手表......)(然后从目录中返回类似的图像)。
我使用 Dense-SIFT 进行特征提取,使用一袋视觉词和 SVM 表示每个图像进行分类。我所有的训练图像都取自目录。
问题是我要查询的图像是从相机拍摄的照片,这些看起来与目录图像非常不同。例如,我的目录中的所有鞋跟/运动鞋只包含以某个特定角度拍摄的右鞋,而我的查询图像还包含鞋跟和脚的一部分,并且拍摄照片的角度可能会有所不同(偏差从目录图像)。
因此,仅当我的查询(测试)图像是目录中的图像(我没有用于训练的图像)时,分类才有效,但不适用于从相机拍摄的图像。
我该如何进行?是我的特征向量还是我的训练数据本身有问题?如果我无法更改训练数据,还有什么可以使用的吗?我应该使用完全不同的方法(不是词袋)吗?
谢谢
opencv - 用于相似图像检测的固定关键点数
我有一组超过 1000 张图片的图像。对于每个图像,我都提取 SURF 描述符。现在我将添加一个查询图像,并想尝试在图像集中找到最相似的图像。出于性能和内存的原因,我只为每个图像提取 200 个带有描述符的关键点。这或多或少是我的问题。目前我通过这样做过滤匹配:
对称匹配: 两个方向的简单暴力匹配。所以从 Image1 到 Image2 和从 Image2 到 Image1。我只保留两个方向都存在的匹配项。
我知道还有更多过滤方法。你怎么看我试着用最终比赛的数量来衡量距离。但我不觉得我这样做是正确的。当我寻找其他方法时,它们看起来都使用图像中存在的所有提取兴趣点进行计算。有没有人有一个好的方法?还是权衡距离的好主意?
我知道没有黄金解决方案,但一些经验、想法和其他方法会非常有帮助。