我正在使用 OpenCV 实现一个词袋图像分类器。最初,我测试了在 SURF 关键点中提取的 SURF 描述符。我听说 Dense SIFT(或 PHOW)描述符可以更好地用于我的目的,所以我也尝试了它们。
令我惊讶的是,他们的表现要差得多,实际上差了将近 10 倍。我可能做错了什么?我正在使用来自 OpenCV 的 DenseFeatureDetector 来获取关键点。我从 9 层中提取每个图像大约 5000 个描述符,并将它们聚集成 500 个簇。
我应该尝试 VLFeat 库中的 PHOW 描述符吗?我也不能在 OpenCV 的 SVM 实现中使用卡方内核,这在许多论文中都是推荐的。这对分类器质量至关重要,我应该尝试另一个库吗?
另一个问题是尺度不变性,我怀疑它可能会受到密集特征提取的影响。我对吗?