问题标签 [stereoscopy]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
opencv - 立体视觉物体识别
我正在使用 OpenCV Haar 级联分类器创建一个静态手势识别系统。我最终想把这个识别系统变成立体识别系统。这是我的问题,我可以采用 Haar Cascade Classifier 创建的 2D 识别系统并在两个相机上实现它,以便在使用 OpenCV 中包含的立体校准功能后创建视差图吗?或者,我是否必须用我已经校准的立体系统拍照来创建级联分类器?
很难找到关于这个主题的好信息,我想计划我的项目并确保在购买和创建所有东西之前我做的是正确的事情。
谢谢。
matlab - 立体视觉:深度估计
我正在从事立体视觉任务,我想获得立体视觉相机和物体之间的距离。我正在使用带有计算机视觉系统工具箱的 Matlab。
我使用“Matlab 的相机校准工具箱”校准了相机,因此我有左右相机的内在参数和外在参数(右相机与左相机的位置)。我还有一对校正后的图片和他们的视差图。为了估计视差,我使用了 Matlab 函数 disparity()。我知道相机的基线和焦距,但我的结果仍然是错误的。
但我知道距离是 cca 600 mm。这个公式对吗?单位呢?mm * mm / pixel != mm
. 特别是我想使用相机矩阵(内在参数)进行计算,但我不知道如何。我会感谢任何提示。
wpf - WPF 上的立体 3D
我必须在 WPF 控件上显示立体 3D 图形。
我已经有了创建两个 DirectX-9 纹理来显示的代码,每只眼睛一个纹理。
我想使用 3D Vision(不是立体图)。
我考虑了以下方法将两张图片显示为 3D 立体:
- 使用 OpenGL 或 DirectX 11.1 Stereo API。
- 如此处所述使用 NvAPI_Stereo_SetActiveEye: http ://www.nvidia.com/docs/IO/40505/WP-05482-001_v01-final.pdf
- 使用此处描述的 NVidia 立体签名: NV_STEREO_IMAGE_SIGNATURE 和 DirectX 10/11 (nVidia 3D Vision)
- 尝试一张接一张地渲染两张图,希望 CompositionTarget.Rendering 不会丢失太多 VSync,如果丢失单个 VSync 则进行同步。此外,通过一些不可见的控件打开 3D Vision 发射器,渲染一个虚构的立体图像。
- 渲染 3D 场景并让 NVidia 驱动程序自动使其立体化。
- 渲染到一些真实的 Windows 控件(如 Winform 控件),并使用 WPF 宿主(如 WinFormHost)显示内容。
上述方法存在的问题是:
1-3:前三种方法之一似乎是直接的解决方案,但在 WPF 中是不可能的,因为我无法创建设备/上下文并控制图片的呈现方式。
4:使用 CompositionTarget.Rendering 我只能得到大约 60Hz 而不是 120Hz。我猜问题是 EndScene() 被调用了两次——一次在我的渲染场景中,另一次在 WPF 渲染机制中,但我不确定。无论如何,即使会起作用 - 该解决方案似乎不稳定。
5:由于某些技术原因,我无法渲染 3D 场景,这迫使我自己为两只眼睛渲染两个图像。
6:WinFormHost及其朋友的问题在于它不是WPF控件,并且在WPF控件方面有意外行为。例如,WinForm 控件将隐藏逻辑树上较高的 WPF 控件,它不能使用 RotateTransform 等进行旋转。
现在我选择了最后一个解决方案——使用 WinFormHost。有谁知道在真正的 WPF 控制中制作立体 3D 的牢不可破的墙的解决方案?
matlab - 立体声匹配
我正在使用 Matlab 的相机校准工具箱。校准后,我有立体相机系统的内在和外在参数。接下来,我想确定相机系统和物体之间的距离。为了获得这些信息,我使用了工具箱中包含的函数 stereo_triangulation。输入是两个矩阵,包括左右图像中对应的像素坐标。
我尝试使用基本块匹配方法获取对应坐标,该方法在 Matlab 的立体视觉帮助中有所描述。
我的图片分辨率为 1280x960 像素。我知道最大的差异在 520 像素左右。我将视差范围的最大值设置为 520。但随后确定坐标需要很长时间。在实践中是不可能使用的。使用 Matlab 的函数 disparity() 计算视差图要快得多。但我想要前面的步骤 - 对应的坐标。
请您建议我如何有效地使用 Matlab 获得坐标?
opencv - 为什么视差数必须能被 16 整除?
为什么在 OpenCv 中视差数,在视差图的创建中,必须能被 16 整除?
opengl - Nvidia 3D Vision 和 AMD HD3D 的意义何在?
为什么他们推广这些奇怪的技术而不仅仅是支持 OpenGL 四边形缓冲?
好吧,他们说以 HD6000 开头的 AMD 卡支持 OpenGL 四缓冲,但 HD3D 仍然是您在首页上看到的(嗯,也许是因为还没有原生 DirectX 四缓冲支持)...
matlab - 如何从立体几何参数估计视差/深度图限制?
我正在尝试估计立体对中某些点之间差异的上限。我知道以下参数:
收敛角:2.2°
基线:77 毫米
焦距:6.3毫米
X分辨率:72
Y分辨率:72
分辨率单位:0x2(英寸)
我知道 x 方向(沿极线)上的对应点之间的距离变化高达约 120 像素......我已经看到,对于前景中的点,这个距离很小,因为背景中的点更大,我想要一个自动建立这个距离的上限的方法......我的问题是我是否可以使用这些参数估计这个上限(不估计视差/深度图)..我不需要视差的确切值而只是一个近似值改变我的安全上限。
注意我没有传感器尺寸:(
感谢所有回复!
android - OpenGL 2.0 中的立体 3D 视图
我一直在到处寻找 Android 的并排(立体)OpenGL 示例的示例、演示代码或教程。我相信它需要使用 gl_Scissor,随着新的 VR 智能手机设备(vRase、OpenDive)的爆炸式增长,我认为对 Android 会有一些帮助。
image - 用于深度测量的立体相机
一直在读这篇论文:
弄清楚如何使用 2 个平行相机来找到物体的深度。似乎我们需要相机在精确平面上的视场(这是相机无论如何都试图测量的深度)来获得深度。
我解释错了吗?或者其他人知道如何使用一对相机来测量物体与相机对的距离?
开尔文
opencv - OpenCV StereoSGBM 和 gpu::StereoBM_GPU 之间的巨大区别
我尝试使用 OpenCV 生成立体图像的视差并使用 GPU 优化性能,但它们的结果不同。
StereoSGBM 初始化
结果:http: //i.stack.imgur.com/eov4N.jpg
gpu::StereoBM_GPU 初始化
结果:http: //i.stack.imgur.com/WVzrK.jpg
有谁知道为什么?