是否可以使用 iphone X faceID 数据创建用户面部的 3D 模型?如果是的话,你能告诉我我应该在哪里看吗?我无法找到与此相关的东西。我在 WWDC 上找到了一个关于真实深度和 ARKit 的视频,但我不确定它是否会有所帮助。
编辑: 我刚刚看了一个 WWDC视频,它说 ARKit 提供了详细的 3D 几何面。您认为创建人脸的 3D 表示是否足够精确?也许与图像结合?任何想法?
是否可以使用 iphone X faceID 数据创建用户面部的 3D 模型?如果是的话,你能告诉我我应该在哪里看吗?我无法找到与此相关的东西。我在 WWDC 上找到了一个关于真实深度和 ARKit 的视频,但我不确定它是否会有所帮助。
编辑: 我刚刚看了一个 WWDC视频,它说 ARKit 提供了详细的 3D 几何面。您认为创建人脸的 3D 表示是否足够精确?也许与图像结合?任何想法?
是和不是。
是的,有一些 API 可用于获取使用 TrueDepth 相机捕获的深度图,用于面部跟踪和建模,以及使用 Face ID 在您自己的应用程序中进行身份验证:
您使用 LocalAuthentication 框架实现 Face ID 支持。它与您在其他设备上用于 Touch ID 支持的 API 相同——您无法访问身份验证工作原理或所涉及的生物特征数据的内部信息,只是关于用户是否通过身份验证的简单是或否答案.
对于带有照片和视频的简单深度图捕获,请参阅AVFoundation > Cameras and Media Capture或WWDC17 会议- 关于使用 iPhone 7 Plus 双后置摄像头捕获深度的所有内容也适用于 iPhone X 和 8 Plus 双后置摄像头,以及 iPhone X 上的前置原深感摄像头。
对于人脸跟踪和建模,请参阅ARKit,特别是ARFaceTrackingConfiguration
相关 API。示例代码显示了您可以在此处执行的各种基本操作,以及您找到的使用 ARKit 进行人脸跟踪的视频。
是的,确实,您可以使用 ARKit 创建用户面部的 3D 表示。您在该视频中看到的线框正是如此,由 ARKit 提供。借助 ARKit 的 SceneKit 集成,您可以轻松地显示该模型、为其添加纹理、添加其他锚定的 3D 内容等。ARKit 还提供了另一种形式的面部建模,称为混合形状——这是面部参数的更抽象表示,跟踪 50左右肌肉运动,用于驱动像Animoji这样的化身角色。
所有这些都适用于通用面部模型,因此实际上并没有任何关于识别特定用户面部的内容(并且您被禁止在 App Store 中尝试以这种方式使用它——请参阅第 3.3.52 节“如果您的应用程序访问人脸数据...”在开发者程序许可协议中)。
不,Apple 不提供对用于注册或验证 Face ID 的数据或分析的访问权限。凝视跟踪/注意力检测以及 Apple 面部建模中与识别唯一用户面部有关的任何部分都不是 Apple 提供的 SDK 的一部分。