问题标签 [open3d]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 如何使用 open3d 实时可视化 kinect 点云
我想要做的是实时可视化从我的 xbox360 kinect 流式传输的数据。
本质上,我是从数据中创建一个点云,然后将其可视化。我拥有的代码正在运行,但它真的很慢。
基本上,一旦从 kinect 接收到此代码,它就会添加一个点云。每当收到另一个点云时,就会删除前一个点云并添加一个新点云。
有一个更好的方法吗?具有更高帧速率的响应速度更快的东西
这是从 kinect 流式传输数据的代码
open3d - 重叠点 Open3d
我正在使用 open3d 进行点云注册。我有两个部分重叠的点云,分别是源云和目标云。我已经在一个通用坐标系中注册了它们。现在,我想删除重叠点以获得统一的单点云。
所有帮助将不胜感激。非常感谢您提前。
math - 3D点云配准中的信息矩阵?
在 Open3D 库中有一个计算信息矩阵的函数,它使用 2 个云、一个变换矩阵(配准算法的输出)和一个距离。我想了解 3D 点云配准中信息矩阵的含义,它的用途是什么?
我知道如何计算它,但只是因为我阅读了维基百科的文章。我读了一些文章,但没有什么可以指导我。
python - 如何在 trimesh 中加载纹理网格?
我的最终目的是将带纹理的 obj 模型作为 SINGLE 对象加载到 trimesh 中TriangleMesh
,或者将纹理转换为彩色点云,这样我就可以使用存储在vertex_colors
属性中的颜色。
当我使用trimesh.load
时,它会返回一个具有多个几何图形的场景。当我trimesh.load(force='mesh')
打电话时,所有的纹理都被弄乱了。我还尝试使用 open3d 加载 obj 文件,然后将其转换为 trimesh:
tm.Trimesh(np.asarray(mesh.vertices), np.asarray(mesh.triangles), vertex_normals=np.asarray(mesh.vertex_normals)
使用这种方法,我可以获得带有三角形和顶点的 3d 模型,但我不知道如何将 open3d 纹理传递给 trimesh。我知道 trimesh 具有visual
解释纹理的属性,但是我不知道如何从 open3d 纹理构建它。
python - 过滤点云
opend3d
我希望尽可能有效地过滤加载 的点云。
目前,我先对这些点进行下采样,然后再用它们制作网格并.contains
在我手动完成的包含体积网格上使用。像这样的东西:
我想做的是,在下采样之后,屏蔽掉 X、Y 和 Z 上的点,然后制作一个网格以.contains
在相同的包含体积中再次使用。我认为这会减少.contains
计算并运行得更快,确实如此,但只是边际减少,如 10 或 15 毫秒,有时更少。像这样的东西:
python - 如何使用 python 将 3D 云数据点转换为网格?
我有一组看起来类似于球体的 3D 数据点。我需要将这些数据点连接为防水网格,以便将其用于模拟。
我与 Meshlab 合作并获得了合理的网格,但不是防水的。
在此之后,我尝试使用球枢轴算法来使用 Open3D python 库。由此,我无法按预期获得防水网格。我尝试使用hole_fixer 外部库(Hole_fixer),但在使用cmake 安装时发现并出错。
我已经插入了代码以及用于 open3D 的“xyz”数据点。
“xyz 文件”的链接:xyz_file_link
从 Open3D 获得的网格:Mesh_from_open3D
我想知道如何为这些数据点获取防水网格。
任何线索将不胜感激。
问候,
苏纳格 R A.
python - 如何在open3D中更新圆柱高度
我想改变 open3D 中圆柱体的高度。可能吗?如果是,我该如何进行?我正在使用open3d-python==0.7.0.0
.
谢谢!
point-clouds - 将 Mujoco 深度图像转换为 Open3D 点云
我正在尝试从在 MuJoCo 中渲染的深度图像生成 Open3D 点云。我的代码在下面,将 MuJoCo 依赖项注释掉,并在下面链接渲染深度图像:
我渲染并立即保存的图像在此处可用并在此处显示。距离相机 0.5 米处有一架飞机,一个机械臂关节笔直地竖立在画面的中心。
最大实际深度 z 值为 0.5,因此我相信转换为深度是正确的。x 和 y 值是 ~100 并且应该是 ~0.1,即使我在 create_from_depth_image 函数中包含 depth_scale=1.0 也是如此。我曾尝试使用以下方法手动将云中的 x 和 y 值缩小 1,000:
云看起来更好,但仍然不正确,尤其是从其他角度看。这是从 MuJoCo 的渲染函数返回的门的深度图像的另一个示例,带有渲染的彩色图像和深度图像。
我究竟做错了什么?相机矩阵或比例是否有问题?mujoco的render函数返回的深度图是480x640,但是o3d深度图的尺寸是640x480。
编辑:我尝试使用
相反,点云看起来好多了。(之前和之后)。我的焦距计算有误吗?525 和 525 似乎适用于 fx 和 fy,但我的值是 1300 和 1732。