0

我正在尝试计算图像数据库的 ORB(定向 FAST 和旋转简要)特征。nexr 任务是使用词袋方法来计算图像的最终特征。我的问题是,在某些情况下,我从数据库的图像中得到 0 个关键点(在 ORB 或 BRISK 实现中)。我的代码来自这里

img = cv2.imread('D:/_DATABASES/clothes_second/striped_141.descr',0)
orb = cv2.ORB()
kp = orb.detect(img,None)
kp, des = orb.compute(img, kp)
img2 = cv2.drawKeypoints(img,kp,color=(0,255,0), flags=0)
plt.imshow(img2),plt.show()

在这里可以做些什么,至少 orb 找到一个关键点?在这些情况下如何使用密集采样?

4

1 回答 1

2

您可以使用密集特征检测器,例如在 C++ 中实现的检测器:http: //docs.opencv.org/modules/features2d/doc/common_interfaces_of_feature_detectors.html#densefeaturedetector

问题是,我不确定它是否已被移植到 python。但是,由于算法不是那么难,你可以自己实现它。以下是 C++ 中的实现:

void DenseFeatureDetector::detectImpl( const Mat& image, vector<KeyPoint>& keypoints, const Mat& mask ) const
{
    float curScale = static_cast<float>(initFeatureScale);
    int curStep = initXyStep;
    int curBound = initImgBound;
    for( int curLevel = 0; curLevel < featureScaleLevels; curLevel++ )
    {
        for( int x = curBound; x < image.cols - curBound; x += curStep )
        {
            for( int y = curBound; y < image.rows - curBound; y += curStep )
            {
                keypoints.push_back( KeyPoint(static_cast<float>(x), static_cast<float>(y), curScale) );
            }
        }

        curScale = static_cast<float>(curScale * featureScaleMul);
        if( varyXyStepWithScale ) curStep = static_cast<int>( curStep * featureScaleMul + 0.5f );
        if( varyImgBoundWithScale ) curBound = static_cast<int>( curBound * featureScaleMul + 0.5f );
    }

    KeyPointsFilter::runByPixelsMask( keypoints, mask );
}

但是,您会注意到,此实现不处理关键点的角度。如果您的图像有旋转,这可能是一个问题。

于 2014-04-30T08:16:07.367 回答