我想实现类似于ARCore 的 raycast 方法的东西,它在世界空间坐标中采用任意光线而不是屏幕空间点:
List<HitResult> hitTest (float[] origin3, int originOffset, float[] direction3, int directionOffset)
我看到 ARKit 本身没有那种方法,但无论如何,也许有人有想法!
谢谢。
我想实现类似于ARCore 的 raycast 方法的东西,它在世界空间坐标中采用任意光线而不是屏幕空间点:
List<HitResult> hitTest (float[] origin3, int originOffset, float[] direction3, int directionOffset)
我看到 ARKit 本身没有那种方法,但无论如何,也许有人有想法!
谢谢。
在 Apple RealityKit 和 ARKit 框架中,您可以找到三种主要类型的Raycast
方法:ARView Raycast
和ARSession Raycast
(Scene Raycast
或 World Raycast)。用 Swift 编写的所有方法:
此实例方法执行光线投射,其中光线从相机中心通过视图中的一个点投射到场景中,并立即返回结果。您可以在 ARKit 中使用这种类型的光线投射。
func raycast(from point: CGPoint,
allowing target: ARRaycastQuery.Target,
alignment: ARRaycastQuery.TargetAlignment) -> [ARRaycastResult]
此实例方法针对给定原点、方向和长度的光线,针对场景中的所有几何图形执行凸光线投射。
func raycast(origin: SIMD3<Float>,
direction: SIMD3<Float>,
query: CollisionCastQueryType,
mask: CollisionGroup,
relativeTo: Entity) -> [CollisionCastHit]
此实例方法随着时间的推移重复射线投射查询,以通知您物理环境中更新的表面。您可以在 ARKit 3.5 中使用这种类型的光线投射。
func trackedRaycast(_ query: ARRaycastQuery,
updateHandler: @escaping ([ARRaycastResult]) -> Void) -> ARTrackedRaycast?
这个 RealityKit 的实例方法也执行跟踪的光线投射,但这里的光线是从相机中心通过视图中的一个点投射到场景中的。
func trackedRaycast(from point: CGPoint,
allowing target: ARRaycastQuery.Target,
alignment: ARRaycastQuery.TargetAlignment,
updateHandler: @escaping ([ARRaycastResult]) -> Void) -> ARTrackedRaycast?
import RealityKit
let startPosition: SIMD3<Float> = [3,-2,0]
let endPosition: SIMD3<Float> = [10,7,-5]
let query: CollisionCastQueryType = .all
let mask: CollisionGroup = .all
let raycasts: [CollisionCastHit] = arView.scene.raycast(from: startPosition,
to: endPosition,
query: query,
mask: mask,
relativeTo: nil)
guard let rayCast: CollisionCastHit = raycasts.first
else {
return
}
import ARKit
let query = arView.raycastQuery(from: screenCenter,
allowing: .estimatedPlane,
alignment: .any)
let raycast = session.trackedRaycast(query) { results in
if let result = results.first {
object.transform = result.transform
}
}
raycast.stop()