问题标签 [object-recognition]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
algorithm - 如何从玩具车中的测距仪传感器绘制房间轮廓?
我有一辆玩具车,前面、后面和两边都有一个 arduino 和 4 个超声波测距仪传感器,如果在传感器覆盖的范围内存在的话,它们会给我到墙壁的距离,传感器给我简短的数据间隔,汽车必须在房间周围移动并绘制轮廓,房间可以有柱子并且有点不规则,我不知道这个绘图中涉及的算法,任何见解将不胜感激。
kinect - 使用 HAAR 训练进行便利贴识别
我需要能够通过 Microsoft Kinect 视频流检测各种彩色便利贴。我曾尝试使用 Emgucv 进行边缘检测,但它似乎无法定位顶点/边缘以及颜色分割/检测,但考虑到各种颜色可能不够稳健。
我正在尝试使用 HAAR 分类。任何人都可以建议使用最好的正面/负面图像。例如,对于正面图像,我应该在不同的照明条件和方向拍摄许多不同颜色的便利贴吗?看到它是一个非常简单的形状(正方形),使用 HAAR 分类会使事情变得过于复杂吗?
matlab - 如何在 geoff Hinton 的深度神经网络中测试自己的图像?
这是 Geoff Hinton 的 Matlab 代码的链接。
他为手写识别制作了这段代码。
我想要一个物体识别代码,所以我想用我自己的图像来训练它。我通过digit0.mat
在文件中进行一些更改(加载我自己的图像数据集而不是)来做到这一点makebatches.m
。
但是我在训练后找不到,从哪里以我自己的方式测试创建的神经网络?
有人可以通过查看代码来提供帮助吗?
opencv - 具有良好特征的标记,用于识别多个对象
我试图通过识别物体在相机图像上的标记来定位物体。我目前正在使用 ORB 特征检测器(即金字塔 FAST 检测器)和 BRISK 描述符。
我应该正确识别 12-16 个不同的标记(因为我还希望知道对象的方向,所以我会在每个对象上放置一个立方体或 3 面棱镜,并且我应该能够在单个场景中识别 4 个对象)。
我的问题是,我如何选择具有良好特征(可重复和独特)的标记?
附带问题:我是否以不好的方式处理这个问题?有没有更简单的解决方案?
谢谢
android - Android 中最快的移动物体识别和跟踪
我正在开发一个增强现实游戏,它需要识别和跟踪快速移动的物体。我尝试了以下图像处理库,
1.OpenCV
2. BoofCv
3. 快速简历
我已经尝试过 TLD 算法来跟踪对象,跟踪是成功的,但性能确实需要改进。如果对象移动得更快,则结果需要时间,因为算法需要处理时间。我还尝试了带有 boofcv 的循环、均值偏移等算法。
检查这些演示:
这两个演示中的对象跟踪似乎很好,但计算需要时间。
我可以使用以下方案更快地做到这一点,
提取待跟踪对象的 r,g,b 矩阵
获取相机帧并将其转换为 ar,g,b 矩阵并在相机帧中搜索跟踪的对象矩阵。
有没有更好的方法来做到这一点?
ios - iOS 使用 OpenCV 识别建筑物
我想知道是否可以使用 OpenCV 框架来识别建筑物?例如,如果我存储了一个建筑物的图像,是否可以使用 OpenCV 通过 iPhone 摄像头检测这个建筑物?
谢谢!
java - 用java读取CIFAR10数据
我正在使用CIFAR10数据集进行机器学习项目,并且正在寻找使用 Java 处理数据的最快方法。它由 60,000 张 32x32 彩色图像组成。图片为png格式。
我想将图像存储为原始像素(32x32x3),以便从每个图像中提取特征。
有什么建议么?
opencv - 如何在世界坐标中使用openCV确定对象位置
我正在尝试为我大学的机器人班实施一项任务。该项目的主要任务是使用 KUKA-youbot 机器人抓取杯子。
我发现它的主要问题是关于项目的视觉计算部分。更准确地说,我使用的是 Kinect(将安装在机器人手臂上),一开始我想用这个程序来找到杯子:
- 开始之前给杯子拍照(真的很近)
- 使用openCV从安装在机器人手臂上的kinect实时计算图像的关键点和实时图像的关键点。
- 此时我可以使用 OpenCV 映射两个图像之间的关键点。
- 使用同一时刻从 kinect 获取的 3d 点云图像实时映射图像的 2d 点。计算 3d 图像中的质心,从而知道杯子的位置。
问题是,如果实时图像接近(如 1 米),则关键点提取并将它们与其他对象映射效果很好,否则特别是如果场景中有其他对象,openCV 算法会检测其他重要特征和映射不起作用。
我正在使用这个:http ://docs.opencv.org/doc/tutorials/features2d/feature_homography/feature_homography.html
正如您在第一张照片中看到的那样,机器人靠近杯子,一切顺利, http ://postimg.org/image/byx8danpt/ 我们离杯子很远,没有任何效果。 http://postimg.org/image/9lhhzxk4z/
我想知道我的项目是否还有其他功能更强大的方法。也许是基于模型的东西,而不是像我最初的想法那样基于特征的东西。
谢谢卢卡
object-recognition - Hadoop 可以减少 SIFT 的运行时间吗?
我们可以使用 hadoop 在多个图像上运行 SIFT 吗?
SIFT 在每个图像上花费约 1 秒来提取关键点及其描述符。考虑到每次运行都独立于其他运行,并且无法减少 1 次运行的运行时间,我们可以减少运行时间吗?
多线程将运行时间减少了您拥有的核心处理器数量的一个因子。我们可以在每个处理器上运行每个图像。
无论如何可以使用hadoop在多个图像上并行运行吗?如果是,假设我们有 3 个集群,它可以通过什么因素减少运行时间?
c++ - OpenCV:HSV inRange 返回压缩并重复的二进制图像
我在转换图像以进行颜色识别时遇到了一些问题。
该函数如下所示:
}
输出如下所示:
左边是输入。右边应该是相同的图像,转换为 HSV,在给定阈值之间进行过滤以找到黄色球,经过侵蚀和扩张以去除较小的轮廓,并以原始图像的一半大小显示。相反,它采用预期的图像并将其中 3 个压缩到同一空间中。
关于为什么会发生这种情况的任何猜测?
更新 1:
好的,因为似乎在右侧尺寸的图像上运行 findContours 仍然可以给我正确的输出,即可以将扭曲的 3 次复制的右侧图像的轮廓粘贴到左侧的右侧位置-side 输入图像,我决定只拍摄扭曲的图像并将其裁剪以用于显示目的。它只会用于在图像中查找给定 HSV 范围的轮廓,如果它可以达到这个目的,我很高兴。