2

我正在开发一个项目,该项目使用 Vision Framework 来检测图像中的人脸,然后使用 CoreML 模型来检测人脸是否在微笑。问题是 CoreML 模型文件将近 500 MB。我不想让我的应用程序膨胀太多。

由于我已经从 Vision 框架获得了 VNFaceLandmarks2D 观察数据,我想我会尝试使用它来检测微笑。

有没有人尝试使用 Vision 框架中的 VNFaceLandmarks2D 数据来尝试确定脸部是开心还是微笑?

如果是这样,您是如何做到的,效果如何?

谢谢!

4

2 回答 2

2

一种解决方案是使用较小的 Core ML 模型文件。听起来您正在使用基于 VGGNet 的模型。有几个更小的模型架构(4 到 16 MB 之间)具有与 VGGNet 相同的精度,因此更适合在移动设备上使用。

于 2017-12-02T13:25:47.990 回答
0

这更好、更小、更快、更有趣:

CIFaceFeature 检测允许您检测闭眼和微笑。 https://developer.apple.com/documentation/coreimage/cifacefeature

于 2019-10-25T08:04:50.263 回答