我有一个来自服务器并存储在图库中的图像列表。我想使用 ARKit 选择任何图像并放置在实时墙上,并希望将图像转换为 3d 图像并执行缩放、移动图像等操作。
谁能指导我如何在 AR 中创建自定义对象?
我有一个来自服务器并存储在图库中的图像列表。我想使用 ARKit 选择任何图像并放置在实时墙上,并希望将图像转换为 3d 图像并执行缩放、移动图像等操作。
谁能指导我如何在 AR 中创建自定义对象?
要检测垂直表面(例如墙壁),ARKit
您需要首先设置ARWorldTrackingConfiguration
然后planeDetection
在您的应用程序中启用。
因此,在您的下方,您Class Declaration
将创建以下变量:
@IBOutlet var augmentedRealityView: ARSCNView!
let augmentedRealitySession = ARSession()
let configuration = ARWorldTrackingConfiguration()
然后初始化你的ARSession
和ViewDidLoad
例如:
override func viewDidLoad() {
super.viewDidLoad()
//1. Set Up Our ARSession
augmentedRealityView.session = augmentedRealitySession
//2. Assign The ARSCNViewDelegate
augmentedRealityView.delegate = self
//3. Set Up Plane Detection
configuration.planeDetection = .vertical
//4. Run Our Configuration
augmentedRealitySession.run(configuration, options: [.resetTracking, .removeExistingAnchors])
}
现在您已全部设置为检测到的垂直平面,您需要使用以下ARSCNViewDelegate
方法:
func renderer(_ renderer: SCNSceneRenderer, didAdd node: SCNNode, for anchor: ARAnchor) { }
简单地说:
告诉代理对应于新 AR 锚点的 SceneKit 节点已添加到场景中。
在这种方法中,我们将明确地查找任何ARPlaneAnchors
已检测到的为我们提供:
有关在世界跟踪 AR 会话中检测到的真实世界平面的位置和方向的信息。
因此,将 a 放置SCNPlane
在检测到的垂直平面上很简单:
//-------------------------
//MARK: - ARSCNViewDelegate
//-------------------------
extension ViewController: ARSCNViewDelegate{
func renderer(_ renderer: SCNSceneRenderer, didAdd node: SCNNode, for anchor: ARAnchor) {
//1. Check We Have Detected An ARPlaneAnchor
guard let planeAnchor = anchor as? ARPlaneAnchor else { return }
//2. Get The Size Of The ARPlaneAnchor
let width = CGFloat(planeAnchor.extent.x)
let height = CGFloat(planeAnchor.extent.z)
//3. Create An SCNPlane Which Matches The Size Of The ARPlaneAnchor
let imageHolder = SCNNode(geometry: SCNPlane(width: width, height: height))
//4. Rotate It
imageHolder.eulerAngles.x = -.pi/2
//5. Set It's Colour To Red
imageHolder.geometry?.firstMaterial?.diffuse.contents = UIColor.red
//4. Add It To Our Node & Thus The Hiearchy
node.addChildNode(imageHolder)
}
}
将此应用于您的案例:
在您的情况下,我们需要做一些额外的工作,因为您希望能够允许用户将图像应用到垂直平面。
因此,您最好的选择是使您刚刚添加的节点成为一个变量,例如
class ViewController: UIViewController {
@IBOutlet var augmentedRealityView: ARSCNView!
let augmentedRealitySession = ARSession()
let configuration = ARWorldTrackingConfiguration()
var nodeWeCanChange: SCNNode?
}
因此,您Delegate Callback
可能看起来像这样:
//-------------------------
//MARK: - ARSCNViewDelegate
//-------------------------
extension ViewController: ARSCNViewDelegate{
func renderer(_ renderer: SCNSceneRenderer, didAdd node: SCNNode, for anchor: ARAnchor) {
//1. If We Havent Create Our Interactive Node Then Proceed
if nodeWeCanChange == nil{
//a. Check We Have Detected An ARPlaneAnchor
guard let planeAnchor = anchor as? ARPlaneAnchor else { return }
//b. Get The Size Of The ARPlaneAnchor
let width = CGFloat(planeAnchor.extent.x)
let height = CGFloat(planeAnchor.extent.z)
//c. Create An SCNPlane Which Matches The Size Of The ARPlaneAnchor
nodeWeCanChange = SCNNode(geometry: SCNPlane(width: width, height: height))
//d. Rotate It
nodeWeCanChange?.eulerAngles.x = -.pi/2
//e. Set It's Colour To Red
nodeWeCanChange?.geometry?.firstMaterial?.diffuse.contents = UIColor.red
//f. Add It To Our Node & Thus The Hiearchy
node.addChildNode(nodeWeCanChange!)
}
}
}
nodeWeCanChange
现在您可以随时参考设置它的图像很简单!
每个SCNGeometry
都有一组材料,它们是:
一组着色属性,用于定义渲染时几何体表面的外观。
在我们的案例中,我们正在寻找以下材料diffuse property
:
管理材质对照明的漫反射响应的对象。
然后是内容属性:
材质属性的视觉内容——颜色、图像或动画内容的来源。
显然,您需要处理这方面的全部后勤工作,但是假设您将图像存储到 UIImage 数组中,那么一个非常基本的示例可能看起来像这样:
let imageGallery = [UIImage(named: "StackOverflow"), UIImage(named: "GitHub")]
我创建了一个IBAction
将根据按下SCNNode's Geometry
的标签更改我们的图像的方法,例如:UIButton
/// Changes The Material Of Our SCNNode's Gemeotry To The Image Selected By The User
///
/// - Parameter sender: UIButton
@IBAction func changeNodesImage(_ sender: UIButton){
guard let imageToApply = imageGallery[sender.tag], let node = nodeWeCanChange else { return}
node.geometry?.firstMaterial?.diffuse.contents = imageToApply
}
这足以为您指明正确的方向......希望它有所帮助......