问题标签 [asus-xtion]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c# - 如何使用华硕 xtion pro 为角色设置身体动作动画
我最后一年的项目是使用Asus Xtion Pro Live.fbx
制作动画(骨架),
就像下面视频中的那样:https ://www.youtube.com/watch?v=NxbH-QDHAVg
我已经下载了 miku miku 舞蹈文件并使用了它。但我无法将.fbx
文件加载到其中。
我的问题是:
如何.fbx
像在视频中使用c#和Asus Xtion Pro Live一样为角色(文件)设置动画?
raspberry-pi - Raspberry PI 上的“XnDeviceSensorV2'失败”
我是通过 Raspberry Pi(操作系统:raspbian wheezy)连接和使用 Xtion Pro Live 摄像头的新手。相机已正确连接到树莓派。
我按照 http://mewgen.com/Ge107_files/20120921%20Setting%20up%20Rasberry%20pi%20for%20the%20Xtion%20and%20kinect.html的步骤 操作 Xtion(openni 和传感器)。
当我尝试运行命令(以 root 身份)“cd /unstable/SensorKinect/Platform/Linux/CreateRedist/./RedistMaker Arm”时,我收到此错误:
../Common/CommonCppMakefile:118:目标“Arm-Release/XnSensorDepthGenerator.o”的配方失败制作:[Arm-Release/XnSensorDepthGenerator.o] 错误制作:离开目录“/home/pi/unstable/SensorKinect/Platform/ Linux/Build/XnDeviceSensorV2' Makefile:48: recipe for target 'XnDeviceSensorV2' failed make: [XnDeviceSensorV2] Error 2 make: Leaving directory '/home/pi/unstable/SensorKinect/Platform/Linux/Build'
我已经完成了上述网站作者建议的所有更改,但问题仍然存在。
谁能给我一些建议?
opencv - 无法使用 Opencv 代码从 Xtion Pro Live 抓取图像
我正在使用 OpenCV 2.4.10,我想从我的 Asus Xtion Pro Live 中获取图像。当我尝试执行下面的代码时,我收到此错误:“无法打开捕获。” 我尝试了所有方法,例如传感器更新、opencv 与 openni 编译和 opencv 重新安装(甚至是 2.4.6 版)。
OpenNI 和 Sensor 工作正常,因为我能够运行 NiViewer 等示例。但是示例 openni_capture.cpp(在 opencv-2.4.10/samples/cpp 上)无法正常运行。
编码:
使用以下命令完成编译: g++ capture.cpp -o capture pkg-config --cflags opencv --libs opencv
我该如何解决这个错误?我使用的opencv版本有问题吗?
我做了关于无法使用 Asus Xtion Pro Live 从 VideoCapture OpenCV 抓取图像的内容, 但问题仍然存在。
projection - RGB相机和红外传感器asus xtion PRO live之间的旋转和平移矩阵
任何人都知道是否有关于 rgb 相机和 IR 传感器之间转换(旋转和平移)的信息?校准是唯一的方法吗?我必须在 RGB 图像上投影 3D 点。
python - 华硕 Xtion Pro Live 和 PyOpenni RGB
我在 python 中使用 PyOpenni 从 Asus Xtion Live Pro 读取数据传感器。如果我尝试读取深度数据,一切都会像魅力一样:
即使在每秒 20-30 帧的情况下也可以正常工作,但问题是当我尝试使用相同的方法获取 RGBImage 时:
程序在指令中等待了很多停止
所以我每秒只能或多或少地获得 2-3 帧。
有谁知道为什么?
c++ - 如何在 OpenCV+ROS 下使用 Asus XTion Pro Live IR 图像映射热图像(Flir A325sc)
我想用 XTion 的深度图像映射 Flir 的热图像。由于深度图像是从 Xtions IR 相机计算出来的,我想用 Xtions IR 图像映射 Flir。
因此,我将两台相机放在彼此靠近的一个平面上(x 轴约 7 厘米,y 轴约 1 厘米,z 轴约 3 厘米)。
然后我使用 ROS Indigo 和 openCV 2.4.9 来:
- 将 Flir Focus 设置为修复(无自动对焦)
- 使两个图像同步。
- 将 Xtion IR 图像的大小从 640x480 像素调整为 320x240 像素作为 Flir 图像
- 计算两个相机的内在相机参数。(Flir + Xtion IR)
- 计算外在参数
- 重新映射两个图像以获得校正后的图像
我现在有两个校正后的图像,但在 X(水平方向)上仍有偏移。
如果我理解正确,由于焦距和视场不同(带物镜的 Flir:45° H x 33.8° V 和 9.66mm 焦距,XTion:58° H x 45° V),我有偏移,并且可以用透视变换解决问题,但我没有两个焦距以毫米为单位。
数据表:
- http://support.flir.com/DsDownload/Assets/48001-0101_en_40.pdf
- https://www.imc-store.com.au/v/vspfiles/assets/images/1196960_en_51.pdf
- http://www.asus.com/us/Multimedia/Xtion_PRO_LIVE/specifications/
我有获得焦距的想法,cv::calibrationMatrixValues
但我不知道光圈和高度。
我该如何解决这个问题?
opencv - 我可以在户外使用 Xtion Pro Live
我正在使用 Opencv 2.4.10 在 Ubuntu 12.04 上使用 Xtion Pro Live。我想在白天进行物体识别。
到目前为止,我已经通过生成深度图和视差图在室内实现了物体识别。当我去户外时,我上面提到的地图是黑色的,我无法进行物体识别。
我想问一下 Asus Xtion Pro Live 是否可以在户外工作。如果不能,有没有办法修复它(通过代码)以便在户外进行物体检测?
我四处寻找,发现我应该再带一个立体相机。有人可以帮忙吗?
linux - system() 减慢了我相机的反馈
我在运动检测项目(操作系统:ubuntu 12.04)上使用 opencv 和 Xtion Pro Live 立体相机。我已经设法检测到移动的物体,但我想在检测到运动时发出声音。
我试过了
命令。该代码可以正确执行我想要的操作,但反馈速度较慢。这导致不止一次听到声音。
我应该使用另一个命令吗?你能告诉我为什么这个命令会影响我相机的反馈吗?
c++ - 在给定 2D 图像点、深度图和相机校准矩阵的情况下提取 3D 坐标
我有一组从角点检测功能2D image
输出的关键点。OpenCV FAST
使用Asus Xtion I
还有一个时间同步的深度图,所有相机校准参数都是已知的。使用此信息,我想提取一组3D
坐标(点云)OpenCV.
谁能给我有关如何执行此操作的任何指示?提前致谢!
c++ - 从 .oni 文件中读取会导致帧乱序
我的问题是这个的副本。那里没有解决办法。为了找到解决方案并详细说明我的具体设置,下面显示了用于从 .oni 文件中读取帧的函数。如果此函数以 Type == 2 运行(即运行 # of RGBD 图像,其中 Criteria 是 #),则在 for 循环中运行此函数应该允许用户访问每个图像。但是,彩色图像和深度图像的索引不匹配并且是乱序的。这一直持续到 waitForAnyStream 对以下所有对 IMG_pipeline::listen(...) 的调用超时。
这是一个控制台输出示例:
这是对 IMG_pipeline::listen(...) 的调用:
彩色图像也是交替的 R、G、B 色调。我确信这是数据在 cv::Mat 中的顺序的问题。
更有趣的是,通过多个帧对 IMG_pipeline::listen(...) 的调用具有不同的索引结果,然后多次运行 IMG_pipeline::listen(...) 并在 .oni 文件中递增。