10

最近我一直在尝试使用 Kinect 进行面部识别,使用新的 Developer Toolkit (v1.5.1)。可以在此处找到 FaceTracking 工具的 API:http: //msdn.microsoft.com/en-us/library/jj130970.aspx。基本上到目前为止,我尝试做的是获得每个人独有的“面部特征”。为此,我引用了 Kinect 跟踪的这些面部点: ( http://i.msdn.microsoft.com/dynimg/IC584330.png) 。

然后我跟踪我的脸(加上几个朋友)并使用基本代数计算点 39 和 8 之间的距离。我还获得了当前头部深度的值。这是我获得的数据样本:

DISTANCE FROM RIGHT SIDE OF NOSE TO LEFT EYE: 10.1919198899636
CURRENT DEPTH OF HEAD: 1.65177881717682
DISTANCE FROM RIGHT SIDE OF NOSE TO LEFT EYE: 11.0429381713623
CURRENT DEPTH OF HEAD: 1.65189981460571
DISTANCE FROM RIGHT SIDE OF NOSE TO LEFT EYE: 11.0023324541865
CURRENT DEPTH OF HEAD: 1.65261101722717

这些只是我获得的一些价值。所以我的下一步是使用 excel 绘制它们。我的预期结果是深度和距离之间的线性趋势。因为随着深度的增加,距离应该更小,反之亦然。所以对于人 X 的数据,趋势是相当线性的。但对于我的朋友(Y 人)来说,情节到处都是。所以我得出结论,我不能用这种方法进行面部识别。我无法获得跟踪如此短距离所需的精度。

我的目标是能够在人们进入房间时识别他们,保存他们的“个人资料”,然后在他们退出时将其删除。对不起,如果这有点多,但我只是想解释一下我到目前为止所取得的进展。那么,你们如何看待我如何实现面部识别?任何想法/帮助将不胜感激。

4

3 回答 3

4

如果你使用 aEnumIndexableCollection<FeaturePoint, PointF> 所以你可以使用 aFaceTrackFrameGetProjected3DShape()方法。你像这样使用它:

  private byte[] colorImage;

  private ColorImageFormat colorImageFormat = ColorImageFormat.Undefined;

  private short[] depthImage;

  private DepthImageFormat depthImageFormat = DepthImageFormat.Undefined;

  KinectSensor Kinect = KinectSensor.KinectSensors[0];

  private Skeleton[] skeletonData;

  colorImageFrame = allFramesReadyEventArgs.OpenColorImageFrame();
  depthImageFrame = allFramesReadyEventArgs.OpenDepthImageFrame();
  skeletonFrame = allFramesReadyEventArgs.OpenSkeletonFrame();
  colorImageFrame.CopyPixelDataTo(this.colorImage);
  depthImageFrame.CopyPixelDataTo(this.depthImage);
  skeletonFrame.CopySkeletonDataTo(this.skeletonData);
  skeletonData = new Skeleton[skeletonFrame.SkeletonArrayLength];

  foreach(Skeleton skeletonOfInterest in skeletonData)
  {
       FaceTrackFrame frame = faceTracker.Track(
           colorImageFormat, colorImage, depthImageFormat, depthImage, skeletonOfInterest);
  }

  private EnumIndexableCollection<FeaturePoint, PointF> facePoints = frame.GetProjected3DShape();

然后您可以使用图像中的每个点。我会有一个const double preferedDistance你可以将当前深度和不同点的 x 和 y 相乘,以通过公式找到 x 和 y 的首选版本和深度

首选距离/当前距离

例子:

        const double preferredDistance = 500.0;//this can be any number you want.

        double currentDistance = //however you are calculating the distance

        double whatToMultiply = preferredDistance / currentDistance;

        double x1 = this.facePoints[39].X;
        double y1 = this.facePoints[39].Y;
        double x2 = this.facePoints[8].X;
        double y2 = this.facePoints[8].Y;

        double result = whatToMultiply * //however you are calculating distance.

然后你可以List<>知道要搜索的距离。我还建议你有一个List<>bool ,如果结果匹配,它与要设置为 true 的距离相协调,这样你就可以跟踪哪个 bool 是真/假。
例子:

        List<double> DistanceFromEyeToNose = new List<double>
        {
            1,
            2,
            3 //etc
        };


        List<bool> IsMatch = new List<bool>
        {
            false,
            false,
            false //etc
        };

然后使用for循环搜索它。

        for (int i = 0; i < DistanceFromEyeToNose.Count; i++)
        {
            if (result == DistanceFromEyeToNose[i]) IsMatch[i] = true;
        } 

希望这可以帮助!

于 2012-07-01T15:16:52.327 回答
0

您附上的图片是指二维模型。GetProjected3DShape与图片无关。

用于IFTResult.Get2DShapePoints获取 2D 人脸点。如果您使用的是 FaceTrackingBasics-WPF 示例,则必须为该方法编写 C# 包装器。

于 2013-02-22T12:02:10.020 回答
0

我正在为我的硕士学位做一个像这样的项目,我正在使用比例不变的马氏距离计算距离。这是公式: d(x,y)=sqrt(Pow((Xi-Yi),2)/Pow(Si,2)) ; i:1-->N,其中 Si 是样本集上 Xi 和 Yi 的标准差。这是维基百科链接:http ://en.wikipedia.org/wiki/Mahalanobis_distance

于 2014-05-21T19:23:42.200 回答