4

首先一些背景

我编写了一个 C++ 函数,该函数使用 OpenCV 检测 RGB 图像中某种颜色的区域。该函数用于使用 FeatureDetector: SimpleBlobDetector隔离一个小的彩色区域。

我遇到的问题是此功能用于跨平台项目。在我在 Xcode 中使用 OpenCV 的 OSX 10.8 机器上,这可以完美运行。但是,当我尝试在 Visual Studio 中使用 OpenCV 在 Windows 上运行相同的代码时,每当我使用以下代码时,该代码就会崩溃:

blobDetector.detect(imgThresh, keypoints)

出现如下错误:

OpenCV Error: Assertion failed (dims <= 2 && data && (unsigned)i0 < (unsigned)size.p[0] && (unsigned)(i1*DataType<_Tp>::channels) < (unsigned)(size.p[1]*channels()) && ((((sizeof(size_t)<<28)|0x8442211) >> ((DataType<_Tp>::depth) & ((1 << 3) - 1))*4) & 15) == elemSize1()) in unknown function, file C:\slave\builds\WinInstallerMegaPack\src\opencv\modules\core\include\opencv2/core/mat.hpp, line 545

这是迄今为止唯一给我带来问题的 OpenCV 代码。我尝试了几种解决方案,例如这里建议的解决方案Using FeatureDetector in OpenCV在 FeatureDetector OpenCV 2.4.5中给出了访问冲突和访问冲突读取。但无济于事。

我的问题的一个解决方案是在我调用 .detect() 之前添加一个 threshold() 调用,这似乎使它工作。但是我不喜欢这个解决方案,因为它迫使我做一些我不需要做的事情(据我所知),而且由于某种原因没有必要在我的 Mac 上做。

问题

谁能解释为什么下面一行:

threshold(imgThresh, imgThresh, 100, 255, 0);

在以下代码中调用 .detect() 之前,在 Windows 上是必需的,但在 OSX 上不是必需的?

完整的代码片段:

#include "ColorDetector.h"

using namespace cv;
using namespace std;

Mat ColorDetection(Mat img, Scalar colorMin, Scalar colorMax, double alpha, int beta)
{
    initModule_features2d();
    initModule_nonfree();

    //Define matrices
    Mat contrast_img = constrastImage(img, alpha, beta);
    Mat imgThresh;
    Mat blob;

    //Threshold based on color ranges (Blue/Green/Red scalars)
    inRange(contrast_img, colorMin, colorMax, imgThresh); //BGR range

    //Apply Blur effect to make blobs more coherent
    GaussianBlur(imgThresh, imgThresh, Size(3,3), 0);

    //Set SimpleBlobDetector parameters
    SimpleBlobDetector::Params params;
    params.filterByArea = false;
    params.filterByCircularity = false;
    params.filterByConvexity = false;
    params.filterByInertia = false;
    params.filterByColor = true;
    params.blobColor = 255;
    params.minArea = 100.0f;
    params.maxArea = 500.0f;

    SimpleBlobDetector blobDetector(params);
    blobDetector.create("SimpleBlob");

    //Vector to store keypoints (center points for a blob)
    vector<KeyPoint> keypoints;

    //Try blob detection
    threshold(imgThresh, imgThresh, 100, 255, 0);
    blobDetector.detect(imgThresh, keypoints);

    //Draw resulting keypoints
    drawKeypoints(img, keypoints, blob, CV_RGB(255,255,0), DrawMatchesFlags::DEFAULT);

    return blob;
}
4

1 回答 1

2

尝试以这种方式使用它:

Ptr<SimpleBlobDetector> sbd = SimpleBlobDetector::create(params);
vector<cv::KeyPoint> keypoints;
sbd->detect(imgThresh, keypoints);
于 2016-07-15T23:59:48.670 回答