3

刚刚看了新的iPhone X发布会,前置摄像头的传感和跟踪技术是否对开发者开放?舞台上演示了一个 Snapchat 面罩,不确定它是否使用了 ARKit

4

2 回答 2

8

是的,它对开发人员开放。

如果您现在查看ARKit 文档页面,您会发现它分为 World Tracking 和 Face Tracking 部分(加上两者的一些共同点)。World Tracking 是在 WWDC 上宣布的——使用后置摄像头“通过”您的设备查看您周围世界的 AR 内容。

Face Tracking AR 专用于 iPhone X 和原深感摄像头。正如您在这些文档中看到的,它使用ARFaceTrackingConfiguration而不是其他配置类。ARFaceAnchor它通过对象实时为您提供有关面部的信息。

在人脸锚文档中,看起来有两种获取人脸信息的方法。它geometry为您提供了一个可以显示的 3D 网格,或用于将纹理映射到面部——这可能是 Snapchat 演示用于在主题演示中制作摔跤面具的内容。给blendShapes你一堆动画参数,比如下巴张开的距离和左眼的斜视程度(以及大约 50 个其他更微妙的东西)......他们谈论用它来制作木偶或化身的动画,所以这可能是Animoji 是如何工作的。

Apple 还发布了一个示例代码项目,展示了如何执行所有这些操作,因此您可以查看代码以了解如何自己执行此操作。(即使你不能在没有 iPhone X 的情况下运行代码。)

于 2017-09-13T04:26:29.837 回答
0

这是在 iPhone X 上使用原深感摄像头的示例:https ://developer.apple.com/documentation/arkit/creating_face_based_ar_experiences

还有一个全新的会议:使用 ARKit #601 进行面部跟踪

创建基于面部的 AR 体验

使用 iPhone X 上的 TrueDepth 摄像头放置和制作跟随用户面部并匹配面部表情的 3D 内容。

此示例应用程序提供了一个简单的界面,允许您在配备 TrueDepth 前置摄像头的设备上选择四种增强现实 (AR) 可视化(请参阅 iOS 设备兼容性参考)。

  • 仅相机视图,没有任何 AR 内容。
  • ARKit 提供的面部网格,自动估计现实世界的定向光照环境。
  • 虚拟 3D 内容似乎附加到用户的真实面部(并被部分面部遮盖)。
  • 一个简单的机器人角色,其面部表情经过动画处理以匹配用户的表情。

==>为您的第二个用例检查标题为“将 3D 内容放在用户脸上”的部分。

在此处输入图像描述

于 2017-09-13T03:23:42.770 回答