问题标签 [photogrammetry]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
fortran - 加载共享库时出错:libgfortran.so.1:错误的 ELF 类:ELFCLASS32
我正在尝试使用此处的 Structure From Motion 示例(Nghiaho 的 SFM)。我在运行过程的第二部分遇到了一些问题:我从这里pmvs2 doc下载了 PMVS2(基于补丁的多视图立体软件) 。我在 /pmvs-2/program/main 文件夹中打开了终端并输入:
其中options.txt文件是在该过程的第一步中创建的。我有这个错误:
我发现问题是因为我运行的是 64 位版本的程序,而 gfortran 库是为 32 位编译的。我在 /usr/lib32/ 文件夹中有一个名为libgfortran.so.3的文件,并且我创建了一个虚拟链接:
我不知道我现在要做什么。
3d - 有哪些最有效的 3D 重建方法?
由于我一直在对 3D 重建(物理 3D 对象的建模)进行一些研究,因此我遇到了许多解决方案。我很好奇重建 3D 对象的一些有效方法是什么。例如:
- 使用 OpenCV 进行立体 3D 重建
- 来自图像集合的摄影测量
- 激光雷达传感器
- ...?
camera - 是否有相机不仅可以捕捉颜色,还可以捕捉实际深度?
进入 3D 重建技术,我很好奇是否有相机不仅可以捕捉颜色,还可以捕捉图像被捕捉时的深度。看起来,获取传感器上特定像素的深度要比使用许多图像事后重建要准确得多。
想法?建议?
unity3d - 来自已注册栅格的 Meshlab 参数化 + 纹理每次都会崩溃
我一直在尝试使用visualsfm和meshlab进行一些摄影测量。
到目前为止,visualsfm 的工作令人震惊,并且可以非常轻松地生成点云。但是meshlab,这就是问题开始泛滥的地方。
我通常从导入点云开始,清理多余的顶点,然后生成几何图形。生成几何图形后,我会去删除任何异常且不是我想要的面,然后发出删除流形边缘算法。完成所有这些后,我尝试导出网格和从我拍摄的照片生成的纹理图像文件。一旦我从已注册的栅格发出参数化 + 纹理,请注意我只要求 2048 的分辨率,它在粗略使用 GPU 大约 5 秒后最终冻结,并显示(无响应)。
我真的不知道如何解决这个问题,我希望创建自己的资产,不需要每月为 Pro 软件支付昂贵的费用(拜托,我实际上是一个没有那种资金的大学生)。
我正在运行 Windows 10 1607 Intel I7-7700 3.60 GHZ 16 GB ram 64 位
我使用了大约 140 张图片,但我看到 youtube 上的其他人使用更多,没有任何问题。
如果有人能帮我解决这个问题,或者给我看另一个做同样工作的网格编辑软件,请告诉我。
3d - 从各种来源找到的图像创建 3D 对象
我想使用一个程序,使用从谷歌图像收集的不同来源拍摄的15 张左右的图像,至少部分地以数字方式重建一个 10 英尺高的人体雕像。这个想法是将这些图像用作“扫描”,以便以数字方式重建对象。然后,可以从那里评估和改进模型(填补缺失的点等)。
你认为这是可能的吗?如果是的话,你认为使用这些来自网络的图像作为扫描结果会有多成功?该对象不再存在,所以这些图像是我所拥有的。最后,什么软件最适合执行这个过程?
同样,这些图像将来自谷歌图像,并且由使用不同相机的不同人以不同角度拍摄的各种物体图像组成。对我来说,使用程序至少部分生成图像而不是从头开始手动创建图像对我来说很重要。
3d - 估计图像的距离
假设该人平行于墙壁站立。人和墙在同一平面。该人拍摄墙壁的照片(考虑到该人总是捕捉墙壁的底部边缘)。
假设:
很明显,当人靠近墙壁时,墙壁的底部边缘在图像中往往位于底部。随着我们移动得更远,边缘向图像中心移动得更近。
因此,“与墙的距离”和“图像中墙的边缘位置”之间存在关系。
已知参数为:
-> 拍摄图像的相机高度
- >角度(相机的方向)
-> 边缘在图像中的位置
如何根据上述参数制定距离(深度)?还有其他影响上述关系的参数吗?
computer-vision - ARKit 摄影测量
上个月,我一直在研究从实时视频创建 3D 重建的方法。在我看来,唯一的选择是使用 Agisoft 或 Autodesk Capture 等第三方服务。然而,在 ARKit 2.0 发布后,我看到了这条推文。在这条推文中,Tim Field 声称他使用 ARKit 摄影测量法创建了 3D 模型。据我所知,这是不可能的。我只使用 ARKit 来扫描 3D 对象并创建点云。事实上,这正是ARKit 文档所说的:
An
ARReferenceObject
仅包含 ARKit 识别现实世界对象所需的空间特征信息,而不是该对象的可显示 3D 重建。
如果 Tim Field 说的是真的,我如何使用 ARKit 使用摄影测量法创建 3D 模型?
cordova - Cloud Vision API 和摄影测量
我正在构建一个 android 应用程序Cordova
,我想在其中显示两张或多张对象的照片,并根据它们的真实长度调整这些照片的大小。作为一种解决方案,我想在照片对象中放置一个已知大小的对象,例如尺子或钢笔,这样我就可以找到调整照片大小的大小。要检测已知大小的对象,我想使用Cloud Vision API
及其Crop Hints
特征。问题是cloud vision API
它只检测到图像的主要对象。有没有办法让我专注于另一个对象,或者我应该找到另一种方式?