0

我从 OpenCV 开始,想测试一些样本。我使用的示例在屏幕中的面部周围放置了一个矩形。但是结果检测是不稳定和零星的,如何改进我的代码以使检测更顺畅?我使用 haarcascade_frontalface_alt.xml。

void detectAndDisplay( Mat frame )
{
   vector<Rect> faces;
   Mat frame_gray;
   cvtColor( frame, frame_gray, CV_BGR2GRAY );
   equalizeHist( frame_gray, frame_gray );

   face_cascade.detectMultiScale( frame_gray, faces, 1.1, 2, 0, Size(40, 40) );
   for( size_t i = 0; i < faces.size(); i++ )
   {
      Mat faceROI = frame_gray( faces[i] );
      int x = faces[i].x;
      int y = faces[i].y;
      int h = y+faces[i].height;
      int w = x+faces[i].width;
      rectangle(frame,
          Point (x,y),
          Point (w,h),
          Scalar(255,0,255),
          2,
          8,
          0);
    }
imshow( "Capture - Face detection", frame );
}
4

1 回答 1

1

从您的评论来看,您实际上是在视频序列中的每一帧检测人脸,这是零星的,这就是您对结果不满意的地方。如我错了请纠正我。

您在 YouTube 上看到的剪辑很可能是根据检测到的人脸进行跟踪的。在视频序列的第一帧中检测人脸是很常见的,然后将其用作跟踪算法的种子输入来跟踪人脸。OpenCV 有许多跟踪算法,例如 Mean Shift 和 Kalman Filter 跟踪器,可以让您跟踪面部。这些跟踪器的结果将比在每一帧进行检测要平滑得多。

于 2012-11-23T13:48:36.110 回答