问题标签 [lidar]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
geolocation - 从 Google MAP API 获取建筑物高度
我想建立一个网站,它有一个谷歌地图,上面显示了建筑物的 3D 可视化。有没有办法可以突出显示给定半径内的建筑物?
另外,我想要一些关于我选择的点的信息。喜欢
- 所选点半径内的建筑物高度
- 所选点半径内的建筑物区域
- 从该点步行800米内的所有零售店
- 建筑物周围记录的零售类型
- (400 米)现有或计划中的公共汽车、有轨电车或拼车站点的步行距离
- (800 米)现有或计划中的快速公交站、轻轨或重轨站、通勤火车站或通勤渡轮码头的步行距离
- 平日和周末发现电台的频率
- 旅行应该是双向的。两边的车站都没有重复计算。允许步行距离内的车站计为一个!由两条或多条公交路线服务的项目,如果没有一条路线提供超过记录水平的 60%,则可以额外获得 1 分,不超过最高分。
- 在骑自行车的 4800 米范围内找到快速公交站、轻轨或重轨站、通勤火车站或渡轮码头
- 只能在自行车道或限速 40 公里/小时以下的道路上骑自行车
有人可以帮我弄这个吗??
opencv - 使用 ROS、2D 激光雷达和霍夫变换进行地平面检测
作为一个业余爱好者项目,我们最近构建了我们的第一个原型机器人 (UGV),并且正在使用 ROS Kinetic 和 OpenCV 来执行多个障碍物检测和避让任务。作为我们主要的 3D 环境映射设备,我们使用立体相机,我们希望点云数据能够很好地检测到高精度的地平面。机器人只能在高度差不高于 5-6 厘米或更大的地面上行驶。
不幸的是,从立体相机(来自 Stereolabs 的 ZED cam)生成的点云数据对于我们的用例来说可能不够精确。因此,我们购买了一个 2D LIDAR (RPLidar A2M8) 并放置在机器人的“鼻子”上,但角度为 45°(向下朝向地面)。
我们的计划是使用 LIDAR 激光扫描数据来识别地面开始“非平面”的位置。我们想将检测到的机器人中心下方的地线作为参考点/参考线,并且其左右高度差高于5-6cm(可能多1-2cm)的每个点或线都会处于“禁止驾驶/危险区域”。
问题如下:
我们考虑使用霍夫变换或一些具有类似输出的算法来绘制位于机器人中心下方的参考地线(宽度可能为 40-50 厘米)。作为备份/驾驶改进策略,我们也想使用相机数据并应用 Canny Edge Filter + Hough Transform 来检测地面上的边缘,因此如果 LIDAR 数据不存在,我们的机器人可以更好地检测其“无驾驶区域”准确或足够精确。此外,我们可能会尝试使用我们的立体相机和几种算法检测“一般地平面”,然后获取激光雷达数据并从地平面“减去”其数据以找到我们的“安全驾驶区”。
您认为这是实现我们特定目标的正确方法吗,或者您能否指出其他方向,从而在您看来会带来更好的结果?我可能会在接下来的几天和几周内对其进行测试,看看它是否有效,但如果你们中的一些人知道更好的方法,我会非常高兴,这样我们就不会浪费太多时间“朝错误的方向行驶” :-) 提前非常感谢!
arduino - 如何使用多个 VL6180 TOF 传感器?
我正在尝试通过 I2C 总线将两个 Sparkfun VL6180 TOF 传感器连接到 Arduino 板。我可以分别从两个传感器读取数据,但如果两个传感器都连接到 I2C 总线,我将无法从这两个传感器读取数据。
当两个传感器都连接时,我可以从单个传感器读取值。当我尝试使用 I2C 扫描仪查找两个传感器的地址时,我只能找到一个传感器的地址,即默认的 0x29。我可以单独读取传感器的地址,但两者具有相同的地址。有谁知道如何解决这个问题?
I2C 扫描仪代码:
从两个传感器读取数据的代码:
mapping - LiDAR Velodyne Veloview 点云数据
我是新手 .. 我正在做一些地图项目,我需要帮助过滤 LIDAR 点云数据。我有两个问题,希望您能对此有所帮助:1)您可以使用 Veloview 过滤点云数据吗?您可以裁剪捕获的数据吗?如果有,流程是什么?2) 你可以在.csv 中导出/转换 PCAP 文件吗?
谢谢
python - 使用 LidarLite-python 代码进行距离测量
以下是我从某个来源收到的 python 代码。他们在代码中定义了一个名为 GLLv3 的类。我可以执行程序。但是我的激光雷达传感器什么也没发生。我是否需要创建该类的对象,或者我们是否期望执行此代码应该运行传感器?
python - 借助传感器的值更新 python dict
我有一个 python 脚本来运行激光雷达传感器。它测量距离。我在伺服电机的帮助下移动激光雷达。所以我必须以不同的角度测量距离。我正在尝试用角度和距离更新字典。但是字典总是显示错误的角度值。
下面给出部分代码。任何类型的建议都会非常有帮助
training-data - KITTI 数据集裁剪标记点云
我正在尝试训练我的模型来识别汽车、行人和骑自行车的人,它需要骑自行车的人、汽车和行人的点云作为训练数据。我从 KITTI ( http://www.cvlibs.net/datasets/kitti/eval_object.php?obj_benchmark=3d ) 下载了标签和 velodyne 点 ( http://www.cvlibs.net/download) 的数据集。 php?file=data_object_label_2.zip)(http://www.cvlibs.net/download.php?file=data_object_velodyne.zip)。但是,对象标签似乎不是来自这组数据。我试图裁剪点云以提取对象点云,但我只能获得空白的 3d 空间。这是我在 MATLAB 中的裁剪功能。我的代码有什么错误吗?其他地方是否有行人、骑自行车者和汽车点云的训练和测试数据集?
plane - 激光雷达数据的 Ransac 地平面分割
我想使用 ransac 算法分割地平面激光雷达环,我使用 python-pcl 来做到这一点,但我得到了错误的结果,如下图所示。
众所周知,激光雷达数据有许多地平面环,它找不到正确的地平面,但它找到了地平面以上的平面。我可以猜测的原因可能是激光雷达的地面非常稀疏,而地面以上的平面上的点数比地面多,因此算法找到了错误的结果。代码可以列出如下:
不确定是否是我猜测的问题,所以如果有人以前遇到过问题,请告诉我。而且我不知道如何解决这个问题,关于激光雷达环分割的信息很少,有人知道如何解决吗?
还有其他方法可以进行激光雷达地面分割,我可以得到代码吗?
ros - ROS:Gmapping & Lidar (YDLIDAR) - 看穿墙壁和障碍物?
激光雷达运行良好,我的意思是 LaserScan 在 Rviz 中看起来非常好,但是当尝试使用 GMapping 进行地图绘制时,地图正在绘制墙壁,但它也标记了墙壁和其他障碍物之外的自由空间。我已经调整了 maxRange 和 maxURange 参数,但没有任何效果。
python - 激光雷达数据图
SLAM 使用 RpLiDar 和 ROS
您好,我有一个包含两列 [Degrees, Distance] 的表格,我需要显示该信息以围绕我的位置制作地图。任何人都知道这样做的好方法,例如每次我在中心并且我检测到 90 度是什么,所以我在那里打印一个点。
我正在使用 Ubuntu 18.04 LTS、Python 2.7.15、ROS melodic 和 RpLidar A2M8
编辑
我用它来绘制我的极坐标表,但我不知道如何实时绘制它