问题标签 [pose]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
camera-calibration - 用于 Unity 的 Opencv - 相机位置不准确约 2 倍
我在获得准确的 aruco 姿势估计时遇到问题。AR 对象相对于相机的变换比应有的小约 2 倍。在下面的屏幕截图中,相机在真实空间中距离标记 z=0.40m,但在虚拟空间中 AR 对象仅距离 ~.20m。
我认为这可能与我从棋盘或 aruco 标记上测量的长度参数有关?
我使用了这些功能:
Aruco.estimatePoseSingleMarkers (corners, markerLength , camMatrix, distCoeffs, rvecs, tvecs);
其中markerLength = 0.122m,是穿过4x4 aruco的距离(不包括黑色边界)
和:
CalcChessboardCorners (patternSize, squareSize, objectPoint, markerType);
其中 squareSize = .0245m 是棋盘上 1 个方格之间的距离(米)
我尝试将其中一些值加倍并重新校准以查看它是否使 z 值接近 0.40m,但它似乎没有改变。这让我感觉有点不知所措。我拍了大约 50 张校准照片,它们非常多样化。我尝试在相机上捕捉一系列深度和角度。
有任何想法吗?
谢谢,如果您需要更多信息,请告诉我。
computer-vision - 适用于不同大小的多个盒子的 6D 姿势估计的方法
目前,我正在开展一个对集装箱中的纸板箱进行 6D 姿态估计的项目。在我的研究过程中,我发现了很多解决姿态估计问题的论文和方法。但我注意到我的项目存在问题。据我了解,大多数论文都描述了一种基于感兴趣对象的已知 3D 模型的方法。意思是:如果你想估计一个纸箱的 6D 姿势,那么你必须用一个工具创建一个 3D 模型。
但在现实世界中,有很多不同尺寸的纸箱。如果我用一个 3D 模型训练模型(PoseCNN、DenseFusion、LatentFusion、pvNET...),那么它只会检测与已知 3D 模型大小相同的框,对吧?或者它还会检测到其他盒子吗?
如果没有,是否有人知道一种方法可以处理与 3D 模型相同但具有不同大小、纹理等的对象?
我做了 3 天的研究,但不幸的是一无所获。
感谢您的任何提示。
c++ - 融合 IMU 和 Pressure_height 时,来自 hector_localization 堆栈的 Velocity 发布的主题不正确
我正在做一些水下 UUV Gazebo 模拟,并想使用
包融合 IMU 和流体压力传感器输入以进行速度估计。我正在使用这个启动文件
速度和姿态输出如下
姿势
这是不正确的,因为当移动机器人时,x 和 y 中的位置和速度应该改变而不是零。它们是否为零,因为压力主题只有 z 姿态并且压力的 z,y 分量为零,因此包认为机器人不动?如何解决?
unity3d - 如何根据绝对位姿和相对位姿确定当前位姿?
我已经确定了绝对姿势。我确实有一系列相对姿势。我想根据两者的组合来确定当前的相机姿势。我正在使用以下代码来执行此操作
initial_rel_pose
是第一个姿势,而current_rel_pose
是此时的相对姿势。最后,我将位移与之前估计的绝对位姿相乘以确定当前位姿。不幸的是,位置和旋转最初是正确的,但最终是错误的。我究竟做错了什么?
python - 如何在媒体管道中绘制pose_world_landmarks?
我正在尝试绘制我捕获的pose_world_landmarks,就像它显示在GitHub Mediapipe主页上一样(https://google.github.io/mediapipe/solutions/pose.html -> 图5。MediaPipe Pose真实世界3D坐标示例.)
我已经用 matplotlib.pyplot 尝试过,但没有成功。
还:
“mp_drawing.plot_landmarks(results.pose_world_landmarks, mp_pose.POSE_CONNECTIONS)”
打开了大量的带有图形的窗口,看起来也不好看。有人能帮我吗?
我正在使用python。
opencv - 如何使用 Homography 估计相机位移?
假设我有一对包含平面对象的场景的重叠图像。由于特征检测和匹配,我能够估计两个图像之间的 Homography H。是否可以使用 H 检索相机位移?
python - OpenCV 姿态估计中的 net.forward() 错误
我的主要想法是在视频的每一帧上实现姿势估计,但是每当我运行我的代码时,它都会显示下面给出的错误。我从这里引用了我的代码https://github.com/spmallick/learnopencv/blob/master/OpenPose/OpenPoseVideo.py
有人可以帮忙吗?
这是我的代码。
我是姿势估计的新手,所以我很难理解我错在哪里。
opencv - ArUco 标记,为什么当我改变图像分辨率时姿势会改变?
我使用此参考https://automaticaddison.com/how-to-perform-pose-estimation-using-an-aruco-marker/ 来估计标记的姿势。
当我获得凸轮矩阵和失真矩阵时,我使用了完整的相机分辨率。
但是,当我在姿势估计之前更改分辨率(图像大小)时,会得到不同的结果。我不确定为什么以及使用哪种分辨率是正确的。
我们是否应该始终使用与相机校准相同的分辨率?
我希望姿势在某种程度上独立于图像大小,而不是微小的变化。有什么想法吗?
opencv - ArUco 标记,姿势估计 - 究竟是针对哪一点给出平移和旋转?
我检测到了 ArUco 标记并估计了姿势。见下图。但是,我得到的 Xt(X 翻译)是一个正值。根据drawAxis
函数,正方向远离图像中心。所以我认为它应该是一个负值。为什么我变得积极了。
我的相机距离成像表面大约 120 毫米。但我得到的 Zt(Z 平移)在 650 毫米的范围内。姿态估计是否给出了标记相对于物理相机或图像平面中心的姿态?我不明白为什么Zt这么高。
我在改变的同时不断地测量 Pose Z
,得到 roll、pitch、yaw。我注意到滚动(旋转 wrt 凸轮 X 轴)的符号来回改变幅度变化 166-178,但 Xt 的符号没有随着滚动符号的变化而改变。关于它为什么会这样的任何想法?有什么建议可以获得更一致的数据吗?