8

我一直在从事图像处理和机器人技术的自我项目,其中机器人像往常一样检测颜色并挑选对象,它试图检测板上的孔(类似于不同的多边形)。为了更好地理解设置,这里有一张图片: 在此处输入图像描述

如您所见,我必须检测这些孔,找出它们的形状,然后使用机器人将物体放入孔中。我正在使用 kinect 深度相机来获取深度图像。图片如下所示:

在此处输入图像描述

我一直在思考如何用相机检测孔,最初使用遮罩根据深度测量去除背景部分和一些前景部分,但这并没有奏效,因为在相机的不同方向上孔会与电路板合并......类似于inranging(它完全变成白色)。然后我遇到了adaptiveThreshold功能

adaptiveThreshold(depth1,depth3,255,ADAPTIVE_THRESH_GAUSSIAN_C,THRESH_BINARY,7,-1.0);

使用腐蚀、膨胀和高斯模糊去除噪声;它以更好的方式检测到孔,如下图所示。然后我使用了 cvCanny 边缘检测器来获取边缘,但到目前为止效果并不好,如下图所示。在此之后,我尝试了 SIFT、SURF、ORB、GoodFeaturesToTrack 的各种特征检测器,发现 ORB 给出了最好的时间和检​​测到的特征。在此之后,我尝试通过找到查询图像的关键点并匹配这些关键点来获得查询图像的相对相机姿态,以便为findHomography函数提供良好的匹配。结果如下图所示:

在此处输入图像描述

最后,我想获得两个图像之间的相对相机位姿,并使用从solvePnP函数获得的旋转和平移向量将机器人移动到该位置。

那么有没有其他方法可以提高为关键点检测和匹配检测到的孔的质量?

我也尝试过轮廓检测和 approxPolyDP,但近似的形状不是很好:

在此处输入图像描述

我已经尝试调整阈值和精明函数的输入参数,但这是我能得到的最好的

另外,我获得相机姿势的方法是否正确?

更新:无论我尝试什么,我都无法获得良好的可重复特征来映射。然后我在网上读到深度图像的分辨率很便宜,它只用于掩蔽和获取距离之类的东西。所以,我觉得这些功能不合适,因为低分辨率的图像边缘凌乱。所以我想到了检测 RGB 图像上的特征并使用深度图像来仅获取这些特征的距离。我得到的功能质量简直出乎意料。它甚至检测到板上的螺丝!以下是使用 GoodFeaturesToTrack 关键点检测检测到的关键点。使用 GoodFeaturesToTrack 的关键点. 我在获取距离时遇到了另一个障碍,点的距离没有正确显示。我搜索了可能的原因,过了一段时间后我发现由于相机之间的偏移,RGB 和深度图像中存在偏移。您可以从前两张图像中看到这一点。然后我在网上搜索了如何补偿这个偏移量,但找不到可行的解决方案。

如果你们中的任何一个人可以帮助我补偿偏移量,那就太好了!

更新:我无法充分利用 goodFeaturesToTrack 功能。该函数以 Point2f 类型给出角点。如果要计算描述符,我们需要关键点,并使用下面的代码片段将 Point2f 转换为关键点会导致尺度和旋转不变性的损失。

for( size_t i = 0; i < corners1.size(); i++ )
{
keypoints_1.push_back(KeyPoint(corners1[i], 1.f));
}

特征匹配的可怕结果如下所示失去不变性

我现在必须开始进行不同的功能匹配。我会发布进一步的更新。如果有人可以帮助解决偏移问题,那将非常有帮助。

4

2 回答 2

0

补偿图像输出和世界坐标之间的差异:

您应该使用良好的旧相机校准方法来校准相机响应并可能为相机输出生成校正矩阵(以便将它们转换为真实比例)。

一旦您打印出棋盘模板并拍摄各种照片,这并不复杂。(对于这个应用程序,您无需担心旋转不变性。只需使用图像阵列校准世界视图。)

您可以在此处找到更多信息:http: //www.vision.caltech.edu/bouguetj/calib_doc/htmls/own_calib.html

--

现在,由于我似乎无法对这个问题发表评论,我想问一下您的特定应用程序是否需要机器动态“找出”孔的形状。如果孔形状数量有限,您可以对其进行数学建模,并在黑白边缘图像上寻找支持预定义模型的像素。

例如 (x)^2+(y)^2-r^2=0 表示半径为 r 的圆,而 x 和 y 是像素坐标。

话虽如此,我认为需要对应用程序的要求(形状检测)进行更多说明。

于 2014-07-26T23:54:57.530 回答
0

如果您要检测特定形状,例如您提供的图像中的形状,那么您最好使用分类器。深入研究 Haar 分类器,或者更好的是,研究 Bag of Words。

使用 BoW,您需要训练一组数据集,包括正样本和负样本。正样本将包含您要检测的每个形状的 N 个唯一样本。如果 N > 10 更好,最好 > 100 并且高度变异和独特,以便进行良好的稳健分类器训练。

负样本将(显然)包含不以任何方式代表您的形状的东西。它只是用于检查分类器的准确性。

此外,一旦您训练了分类器,您就可以分发分类器数据(例如,假设您使用 SVM)。

以下是一些帮助您开始使用 Bag of Words 的链接: https ://gilscvblog.wordpress.com/2013/08/23/bag-of-words-models-for-visual-categorization/

示例代码: http ://answers.opencv.org/question/43237/pyopencv_from-and-pyopencv_to-for-keypoint-class/

于 2015-04-14T08:39:26.243 回答