问题标签 [fieldofview]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
unity3d - 为什么我无法在 Unity 中更改 Oculus Gear VR 耳机的视野?
每当我在 Unity 中将相机的视野编辑为 100(而不是默认的 60)时,Oculus 或 Unity 都会将我的三星 S7 与 Gear VR 耳机的 FOV 限制为 60。100 被忽略,使用 Gear VR 查看 VR 应用时使用 60。
显然,该支持在 2017 年 3 月(或稍早之前)被禁用,以通过相机自定义 Unity 中光球的 FOV 设置。
我听说您无法更改 FOV 的原因是因为它是特定于设备的设置(S6 与 S7 不同,或者 Oculus Rift 与 Unity 相机的 FOV 值的 Gear VR 不同)。
swift - SCNCamera xFov, yFov 替换为 fieldOfView 和 focusLength
我曾经将xFov
和yFov
的SCNCamera
值设置为从相机field of view
和我的视图计算的值frame size
。这在我的AR
引擎实现中运行良好(使用SceneKit
, not ARKit
)。在新的 Xcode 中,我看到警告,xFov
并且yFov
已被弃用,我应该使用fieldOfView
andfocalLength
代替。我想更新我的代码,但我不知道如何将这些变量设置为与我以前拥有的完全对应。最接近的是设置fieldOfView
为我之前为 xFov * 2 使用的值 - 但它并不完全相同,对象实际上看起来更小一些。是否有某种方法可以计算这些新值,就像我设置xFov and yFov
给定值一样?我拥有的是我以前拥有的这些价值观xFov and yFov
所以我想计算fieldOfView
它focalLength
。
这就是我得到xFov
和yFov
重视的方式:
在 iPhone 6s 水平上,这给了我
Frame
是 的框架SCNView
。
这就是我之前应用这些值的方式(按预期工作)
ios - AVCaptureDevice 的准确和当前 FieldOfView
从AVFoundation
像AVCaptureDevice
我这样的对象中可以读取fieldOfView
using的值
这给了我在 iPhone 6s 上大约 58 度的值。但我需要的是在运行fieldOfView
时获取当前帧中实际显示的当前值AVCaptureSession
。我的意思是,当镜头移动以使图像聚焦时,读取的值activeFormat
并不能反映真实情况。fieldOfView
例如,当我将相机对准远处的物体时,镜头会移动以保持对焦,并fieldOfView
稍微增加一点,达到约 61 度。您可以在相机中观察到这种行为ARKit
- 即使相机正在捕捉焦点,显示的对象也会随着相机预览变得越来越小。我想知道如何实现这种行为并调整fieldOfView
到当前的镜头位置。我需要将此应用于SceneKit
相机。
简而言之:如何在FieldOfView
考虑当前焦点位置(或镜头位置)的情况下找到相机的当前确切位置
为了帮助理解我的意思,请看这个 gif:
一开始你可以看到它聚焦,视频有点像放大/缩小一点以捕捉正确的镜头位置。因此,当这个镜头移动时,实际可见fieldOfView
会有所不同。
virtual-reality - 关于其轴方向的基本 VR 信息
我刚刚开始使用 FOVE VR 耳机。我在 Visual Studio - C# 上运行良好。但是,我很想知道所有 VR 的轴原点在哪里。换句话说,眼睛位置向量与什么有关?
此外,眼睛位置值的单位是什么,会显示在调试工具上。我对这些细节很感兴趣,因为我需要将 VR 轴与作为手部跟踪器的 Leap Motion 轴对齐,并将其集成到另一个应用程序中。
您的帮助和建议将不胜感激。
c# - 使用带有 for 循环的 Raycast 制作视野(使用 Unity C#)
代码:
问题:在 Unity 中,我试图通过使用 for 循环绘制多个光线投射来为敌方 AI 创建一个视野。出于某种原因,光线投射会这样做: GIF
这几天我一直在尝试解决这个问题,请帮忙!
如果需要,还可以使用 FoundPlayer() 函数:
FoundPlayer() 函数只是在其中一个射线投射击中敌人时将其旋转到玩家身边。
python - 如何使用底图在靠近两极时绘制地球观测卫星的视野?
我正在尝试绘制卫星沿其轨道的最大(理论)视野。我正在使用 Basemap,我想在其上绘制沿轨道的不同位置(带散点图),并且我想使用 tissot 方法(或等效方法)添加整个视野。下面的代码可以正常工作,直到纬度达到北纬 75 度,在 300 公里的高度轨道上。超出此代码输出 ValueError:“ValueError:未定义的逆测地线(可能是对映点)”
需要注意的是,该代码在南极(纬度低于 -75)处工作正常。我知道这是一个已知的错误,是否有针对此问题的已知解决方法?谢谢你的帮助!
c# - 与播放器一起旋转视野
所以我试图创建一个系统来寻找可以攀爬的壁架。我有一个垂直视野来寻找这些壁架,到目前为止,我已经让它随着模拟摇杆的方向旋转,所以我可以找到一个壁架并移动到我的模拟指向的地方。(向上看,找到窗台,向上移动等)。我的问题是,当视野移动到我需要它移动的地方时,它保持固定在一个轴上并且不随玩家旋转。
在图片中,锥体朝向它应该在的位置,并按照我的意愿围绕玩家旋转,但正如您所见,锥体面向 X 轴并且不会从那里移动。我希望它与播放器一起旋转。
在下面的代码中,返回的 Vector 的 y 值使圆锥指向上方。我在 x 和 z 值中尝试了各种函数,但没有任何问题。
viewDir 值使圆锥体与我的模拟摇杆一起旋转,为了使圆锥体与我的播放器一起旋转,我认为需要使用 x 或 z 值或两者来完成某些事情,但对于我的生活,我可以'想不通。感谢您在此问题上提供的任何帮助。抱歉,如果我的解释不是很好。
这是显示视野的编辑器脚本。
圆圈仅代表视野的半径,即它向外的距离。
https://www.dropbox.com/s/k9siha2aog9vj8o/fov.mp4?dl=0
在视频中,圆圈随着播放器旋转,而圆锥随着我的左侧模拟动作旋转。我希望锥体像圆一样,它像我的播放器一样旋转,但仍与我的模拟动作相匹配。
camera - 如何防止 SceneKit 在设备旋转时更改相机 FOV / 位置?
由于没有处理旋转或改变任何东西的代码,当我的设备从纵向旋转到横向时,加载并居中在 SceneKit 视图中的模型会更改透视、缩放和拉伸。
ViewController 有一个 SceneKit 视图,它固定在父视图的顶部、底部和侧面。这被证实即使在旋转时也能粘附。
所需设备为 iPhone SE 至 12.9 iPad Pro。
在 iPad 上,这种视觉问题大大减少,但在 iPhone 上,失真、缩放和透视变化非常明显。
我不知道如何嵌入照片,否则我会向您展示,但如果模型在纵向 iPhone 上是正面和中心且 1 英寸 x 1 英寸正方形,当您旋转到横向时,它会变成 0.25 英寸垂直和 0.5 英寸水平。
这是设置场景的代码。
课堂上什么都没有发生,但拉伸、缩小和透视变化发生在设备旋转上。
它们在 iPhone 上更糟,但在 iPad 上大大减少。
opencv - 如何在不了解相机 fov 的情况下从单个图像解决 pnp 问题?
我有一个对象的模型和对象的图像,并试图将对象与图像对齐。相机姿势和 fov 未知,因为图像是从不同的用户收集并使用不同的相机拍摄的。
我现在做的是假设 fov 为 60 度,并用 solvPnp 解决这个问题。但是,结果并不好,除非使用正确的 fov 信息。
OpenCV中是否有解决此类问题的功能?