问题标签 [stereo-3d]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
flash - YouTube 3D flash 播放器如何立即切换到 1080p 的立体图?
像这样的 3D Youtube 电影:http ://www.youtube.com/watch?v=SmV4ieSpk4k可以在各种 3D 技术中观看。我想制作一个模拟播放器,但我不明白 YouTube 的 3D 播放器如何立即从并排切换到浮雕并恢复正常。而且还运行流畅!?!
这就是我尝试过的:来自并排视频(1280x720)的两个视频实例都是 200% 宽度,第一个 x/y = 0/0,第二个 x/y,-720/0
比使用 OPTMIZED ANAGLYPH FILTER ( http://davidshelton.de/blog/?p=163 ) 将其过滤为浮雕。
但是视频没有同时运行,并且在全屏模式下不是很流畅。
有人可以帮我开始吗?
android - EVO 3d 和 drawText
我正在为 evo 3d 创建一个 s3d 应用程序,并且我已经完成了所有图形设置并在 3d 中完美运行。我的问题是,如何使用 drawText 并使其成为 3d?到目前为止,使用 drawText 我只能让文本显示在“左眼”视图中,但在“右眼”视图中,屏幕上没有显示任何内容。
c++ - 使用 AMD Quad Buffer SDK - DirectX 9 查看 3D 图像
我目前正在做一个项目,我需要使用 Bumblebee2 3D 相机拍摄的图像显示 3D 图像。我正在使用 MSI AE2420 计算机,它具有支持 3D 的 AMD HD 5730。我还有一个快门玻璃以立体模式查看图像。
我正在使用 DirectX 9 库( d3dx9.h )。IDE 是 VS 2008 Express Edition。
我有示例图像(左和右),我用线条将它们连续导入程序;
经过一番研究,我发现 Direct3D9 不允许有源 Quad Buffer 立体声。所以我不能使用四个缓冲区(左前、左后、右前、右后)。这就是 AMD 的 Quad Buffer SDK 涉及的地方。他们表示 DirectX 9也不允许有源立体声,我需要使用 SDK 的功能。我正在使用“AtiDx9Stereo.h”,它是 SDK 中六个头文件之一(其他五个用于 DirectX 11 和 DirectX10)。
但是,经过大量的编码和测试,我终于设法启用了立体声,现在我可以在快门玻璃的左侧看到左侧图像,但在玻璃的右侧我什么都看不到。当我关闭我的对我,我只能看到左图。当我闭上左眼时,我只看到一个黑色页面(或将渲染目标清理为蓝色或其他颜色后的蓝色)。这是我的渲染代码和指针的初始化。如果有人曾在这些环境中工作过,分享一些知识可能会很棒。
初始化语句
在这些语句之后,我的 render() 函数是这样的;
在 WINMAIN 中,我用这些语句调用 render;
android - HTC EVO 3D 上的两个摄像头都可以轻松使用吗?
我们正在考虑为 HTC EVO 3D 开发一个将在实验室环境中使用的应用程序,我们需要知道是否可以在硬件上控制两个摄像头。
SDK 是否提供对 HTC EVO 上两个立体摄像头的轻松访问(或任何访问)?如果是这样,操作它们需要什么代码?
opencv - 立体相机中的 OpenCV 人脸检测
这是我想要做的。
- 分别在 2 个经过校准的 USB 摄像头中检测人脸。
- 获取每个相机中人脸中心的坐标。
- 计算视差图中对应的点坐标。
使用 OpenCV 示例代码,我设法
- 检测人脸并获取每个相机的中心坐标。
- 校准 2 个 USB 立体摄像头并获取内部和外部参数
- 从立体相机获取视差图
从这里,我如何计算视差图中的人脸坐标?
提前致谢,
米洛
c++ - 如何使用帧缓冲区和 nvapi 模拟四缓冲区立体声?
我正在尝试在以后型号的 GTX 卡上使用 opengl 进行立体 3D。datenwolf 对我在这里提出的一个先前问题的回答表明,可以使用 NVision3D API 模拟四缓冲立体声,我认为它现在是 NVIDIA api (nvapi) 的一部分。我已经下载了 api 和文档,并且确实看到了一些对立体 3D 的要求,但是完全不清楚如何进行 datenworld 所指的立体 3D 仿真。任何人都可以提供一个 c++ 代码示例,说明如何使用 nvapi 使用帧缓冲区和 blitting 到 nvapi 进行立体 3D 仿真?
c++ - 来自单个校准相机的 2 个连续帧的视差图。是否可以?
stereo_match.cpp示例将 L 和 R 图像转换为视差和点云。我想调整这个例子来计算来自单个校准相机的 2 个连续帧的视差和点云。是否可以?如果这个例子不适合我的范围,那么获得我想要的东西的步骤是什么?
opencv - 使用 openCV 示例进行 3d 表面重建
我正在尝试使用 OpenCV 示例文件从立体配置执行 3D 表面重建。我从 2 个网络摄像头创建了一个立体摄像头。我已经使用 stereo_calib.cpp ( https://code.ros.org/trac/opencv/browser/trunk/opencv/samples/cpp/stereo_calib.cpp?rev=4086 ) 获得了校准参数,并使用 stereo_match 生成了点云.cpp(https://code.ros.org/trac/opencv/browser/trunk/opencv/samples/c/stereo_match.cpp?rev=2614)。使用 MeshLab 打开的结果点云与原始场景完全不同(http://img707.imageshack.us/i/snapshot01u.png/)。
我在这里想念什么?
重建步骤:
- stereo_calib(在图像所在的同一文件夹中,没有参数,因此假定为默认值)
- stereo_match left01.jpg right01.jpg -i intrinsics.yml -e extrinsics.yml -p cloud.asc
- 在 MeshLab 上导入 cloud.asc
谢谢
java - 是否可以在 Nvidia 3D Vision 硬件上以窗口模式运行 Java3D 应用程序?
感谢 JohnnyO,如果可以将 Java3D 应用程序与 nVidia 3D vision 结合使用,则已经得到解答:
是否可以在 Nvidia 3D Vision 硬件上运行 Java3D 应用程序?
他的方法对我也很有效。但它仅限于全屏模式。
他的线程已经有几个月了,现在在过去的几周里,nVidia 改进了它的 3D Vision 驱动程序:现在可以在窗口模式下运行许多应用程序。如果您使用的是专业硬件,例如 nVidia Quadro 卡或 ATI Fire GL,那么您早就知道并喜欢窗口模式了。
现在,随着 nVidia 驱动程序的最新更新(我目前已安装 295.73),还可以在窗口模式下运行许多应用程序,如 nVidia 图片查看器、立体播放器等。
http://nvidia.custhelp.com/app/answers/detail/a_id/2311
通常 DirectX 9 应用程序应该在窗口模式下运行,您可以在前面提到的 nVidia 页面上阅读。而且我认为Java 3D 是一个DirectX 9 应用程序。如果我使用:
-Dj3d.debug=true
然后控制台说:
[j3d] 使用 DirectX D3D 9.0 或更高版本。
(当然,这些说似乎没有人致力于改进 Java 3D 的 DirectX 实现。)
有人同时发现了如何在立体窗口模式下运行 Java3D 的技巧吗?我试过了,但我失败了这么久。如果我们解决了这个问题,我认为这将是支持Java 3D 的一个非常重要的论点!
3d - 立体渲染
我正在尝试开发一个应用程序,它可以渲染来自网络摄像头的两个视频流,使其在 3D 显示器上被视为立体图像。我以前从未处理过立体 3D,但理论上这应该像将流渲染到两个不同的表面并为适当的眼睛显示每个表面一样简单(抱歉,不完全熟悉术语)。我知道 NVidia 驱动程序可以“立体化”任何 3D 应用程序。我也知道视频游戏将此功能作为单独的设置包含在内,因此打开并使用它应该很简单。
不过,我无法在 MSDN 或 NVidia 网站上找到有关如何执行此操作的任何指南。
我将不胜感激在这方面的任何帮助。
谢谢!