问题标签 [pose]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
mobile-robot-toolkit - .simplemap 到 octomap/点云和地面实况机器人位姿转换
我想在我的项目中使用https://ingmec.ual.es/datasets/lidar3d-pf-benchmark/的数据集。可用的地图是 .simplemap。我的理解是它同时存储了地图和机器人的姿势。我想获得这张地图的点云表示(稍后我可以将其转换为八进制图)以及地图中的车辆地面真实姿势。
我已经能够获得 CPose3DPDF,我从中获得了 CPose3d,我相信这是所需车辆的地面真实姿势。如果我错了,请纠正我。现在我有两个问题。首先,轨迹的长度只有 97,这让我怀疑我获取它的代码。其次是关于我与 CPose3DPDF 一起获得的 CSensoryFrame。当我通过执行 CSensorFrame->getObservationByIndex 获得 CObservation 并写入文件时,它让我知道它存储了 velodyne 读数。但我无法从中恢复点云。谁能指导我使用一种工具,该工具可以将 .simplemap 转换为点云或 octomap 表示并从中获取车辆的姿势。提前谢谢了。
c++ - 如何在 ROS 中创建点云质心以从 ROS msg 接收的一组点中执行聚类?
我创建了一个订阅 ROS msg 的节点(到 darknet_ros 边界框 msg)并接收框的坐标点。我喜欢使用这 8 个点来创建质心并使用区域增长算法执行聚类,以获得对象(四元数)的方向。这是我的 ROS 节点,用于获取 Box 坐标
这里是 ROS msg 定义:
而 BoundingBox3d 的内容如下:
以及发布的 ROS msg(boundig_boxes)
那么如何在点云中输入这个xmin,xmax,ymin,ymax,zmin,zmax来创建Centroid,然后分割,然后得到对象的方向呢?谢谢
python - While 循环中的增量
我正在使用 Openpose 制作锻炼计数器。现在我正处于测试阶段我遇到的问题是我有这个代码片段
但问题是由于该人处于俯卧撑位置,因此计数器不断增加。有没有办法解决这个问题,计数器不会继续增加并且只增加一次
c++ - ROS导航栈中机器人的初始位姿
我在导航堆栈中初始化机器人姿势有一个相对简单的问题。在环境中执行 SLAM 并从 map_server 以所需的分辨率和大小保存静态地图,并最终从静态地图服务器提供后,我无法正确初始化我的机器人姿势。虽然可以使用 RVIZ(2D 姿态估计选项)进行初始化,但显然是不准确的,因为我是手动完成的。这有第二个缺点,即当我使用位置(/move_base_trajectory 主题)跟踪而不是速度跟踪(/cmd_vel 主题)时,我应该在低级控制器中手动补偿当前位置的偏移量。还有其他适当的(自动)姿势初始化方法吗?
PS:我正在使用 Lidar /scan 主题来提供成本地图功能。我还用 hector_slam 堆栈测试了机器人的初始化,但是非常准确,我得到了第二张地图,它干扰了第一个地图并且姿势关联不起作用。我猜应该有更合适的方法。我在启动文件中加载我的静态地图:
我的静态地图 yaml 文件很简单
real-time - 当对象一个在另一个之上时,来自单个 2D 图像或来自 RGBD 相机的点云的已知 3D CAD 对象的实时 6D 姿态估计?
我正在进行一个研究项目,我需要在拾取和放置任务中实时估计物体的 6DOF 姿势。必须实时估计姿势,并且对象可以一个在另一个之上并且相同,因此我必须获得顶部对象的位置和方向。问题是物体是相同的(PPVC块,在建筑领域),但好的是它们的形状很规则。
那么如何将RGBD Camera的单张2D点云图像中已知的3D CAD模型与顶部的物体进行比较,从而可以实时得到6DOF位姿。可以使用任何方法,但必须非常准确,因为需要非常高的精度。
我知道可以使用深度学习来定位对象,然后与 3D CAD 模型进行比较或处理点云(分割,如果需要聚类,PCA...),但是如果深度学习失败并且无法检测到怎么办RGBD 相机的对象?那我有什么选择?OpenCv中的表面匹配算法https://docs.opencv.org/3.0-beta/modules/surface_matching/doc/surface_matching.html是一个选项吗?
我从 PCL 开始,将 3D CAD 对象模型与实际对象使用 ICP 匹配的 PCL 场景进行比较如何使用迭代最近点
我的示例代码在这里
但是代码和算法中有两点需要进一步改进。首先,可以更准确。其次,需要提高更新率,假设目标是 25-30fps 左右。有关如何实现这两个进一步改进点的任何帮助?
谢谢
javascript - 应用运动来反应组件 Framer-Motion
我知道我可以motion
像这样直接应用于 element/HTMLtag:
但是我怎么能把它应用到这个上呢?
无需将其包装在另一个 HTML 元素中,例如在React-Transition-Group
库中。
Framer API 提供了Frame
组件,但它就像具有自己样式的永久附加 HTML 元素一样,它弄乱了我的布局。
python - aruco.estimatePoseSingleMarkers() 产生的值有多准确?
我将使用此函数产生的值作为计算机视觉任务的真实标签,我将使用模拟数据训练模型并使用 ArUco 的真实世界模型对其进行测试。
我用棋盘校准了我的智能手机相机,得到了 0.95 的重投影误差(我无法得到小于这个值,尝试了所有可能的选项,如 ArUco 和 ChAruco,捕获了数十张图像,过滤掉了坏的,但没有已改进错误)我在某处读到智能手机应该会出现这种情况,如果没有,请告诉我。
现在我将我的 ArUco 标记放置在环境中的某个位置并捕获它的图像,使用 estimatePoseSingleMarker
. 绘制轴后,一切看起来都很完美且准确。但是,当我将位姿值与使用相同对象和相机模拟相同环境生成的位姿值进行比较时。这些值实际上是完全不同的,尤其是 z 值。
我 100% 确定我的模拟环境没有错误,所以我推测这个差距是由 ArUco 引起的。
你有什么解决办法吗?如何预测 ArUco 的误差?对于收集的真实标签,还有其他可能的解决方案吗?
intersection - Halcon - 基于 2 个姿势生成新姿势
我有 2 个具有不同原点和不同 X 轴方向的平行姿势(Y 是平行的):
- 第一个姿势是我的地平面。X 是水平的,Y 是垂直的,Z 是深度。
- 第二个姿势,在房间里漂浮在第一个姿势上方的某个位置,Y 轴平行于第一个姿势的 Y 轴。X 和 Z 可以沿 Y 轴旋转...
我需要的是第三个姿势,即第二个姿势,但降低到第一个姿势上,以便第三个姿势的 Y0 与第一个姿势的 Y0 相同。
我为此发疯,不知道该怎么做。任何帮助表示赞赏...
编辑:我已经更新了问题以稍微简化问题。