问题标签 [feature-tracking]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
winforms - 特征跟踪 WinForms
我想扩展我的 WinForms 应用程序,该应用程序允许我监控用户使用了哪些功能。
这个想法是计算多少次,例如一个按钮被点击,或者一个弹出窗口被打开。我想知道用户或多或少地使用了哪些功能。
任何想法如何做到这一点?(或者即使有人已经解决了这个问题)
蒂亚,马丁
bug-tracking - 错误和(生产性)待办事项的跟踪器?
我开始使用 bugtracker (www.bugnotes.com),所以我是新手……而且我很容易添加错误,这是有道理的。但是,如果我要实现给定的功能或执行一些重构,其中一些错误将得到修复。那么如何有效地跟踪待办事项列表类型的事情,并且这些类型的任务不与错误跟踪相关联?我想我要的是跟踪错误和功能的工具,因为它们都是代码更改。
哦,将小修复作为#TODO 或 //TODO: 实际上很棒,我喜欢这样的小事,而不是像重构或更改驱动程序或库这样的大事。
另外,我使用的是一个文本文件,但问题是在那里输入的很多内容都变旧了,因此整个内容对我来说毫无用处。
c# - 过滤检测后的形状跟踪
我正在使用 kinect 做计算机视觉软件。我有我的程序设置,以便它过滤掉超出一定距离的所有东西,一旦有东西进入足够近的地方,大到足以成为一只手,我的程序就会假设它是。
但是,我想扩展此功能。目前,如果手离开深度过滤区域,软件将不再跟踪它的位置。认出手后,无论深度如何,如何跟随手?
java - Android:将 calcOpticalFlowPyrLK 与 MatOfPoint2f 一起使用
我一直无法将 calcOpticalFlowPyrLK 与 MatOfPoint2f 一起使用。我声明我的类型如下:
并使用以下内容查找和跟踪特征(我的代码基于 Robert Laganiere 的 C++ 示例光流应用程序。)
以前,变量points
是类型的List<List<Point>>
,我将通过实例化 MatOfPoint2ffromList
并将其传递给 calcOpticalFlowPyrLK 在类型之间进行转换。
但是,我不想再这样做了,因为这种从和到列表的转换会丢失和中的点之间的对应initial
关系points
。我想保留这种对应关系,因此我可以通过同时迭代两个矩阵中的项目来绘制光流线。
不幸的是,现在我有以下断言失败:
奇怪的是,如果我自己添加这个断言,在调用 calcOpticalFlowPyrLK 之前,它不会失败。
我希望有人可以帮助我找出真正的问题出在哪里,以及如何保持帧之间跟踪点之间的这种关系。
编辑:我发现需要做些什么来避免这个断言错误,然后应用程序行为正确,但是:
- 我不知道为什么。
- 我现在对 Calib3d.solvePnP 也有类似的问题,但是将 convertTo 应用于 imagePoints 和 objectPoints 并不能解决这里的问题,无论是
CvType.CV_32FC2
,CvType.CV_32F
还是CvType.CV_64F
为了在 的情况下纠正断言失败calcOpticalFlowPyrLK
,我已更改points.get(0).push_back(initial);
为以下内容:
所以我的问题变成了:有人可以为我解释一般情况,以便我知道如何解决我的 Calib3d.solvePnP 问题吗?
java - 过滤 MatOfDMatch
在我的代码中的某个时刻,我调用
现在,如果我想过滤结果匹配,我相信我必须做一些丑陋的事情,比如:
- 这可以在没有丑陋的来回转换到列表的情况下完成吗?
- 我已经尝试通过 JNI 执行此操作,但是如何将 MatOFDMatch 从 Java 传输到 C++ 并返回?
opencv - 绘制 calcOpticalFlow 的输出特征向量时跟踪不准确
我一直在尝试开发一个简单的特征跟踪程序。用户用鼠标在屏幕上勾勒出一个区域,并为这个区域创建一个遮罩并传递给 goodFeaturesToTrack。然后将函数找到的特征绘制在屏幕上(由蓝色圆圈表示)。
接下来,我将函数返回的特征向量传递给 calcOpticalFlowPyrLk 并在屏幕上绘制结果向量(由绿色圆圈表示)。尽管程序正确地跟踪了流动方向,但由于某种原因,calcOpticalFlow 函数输出的特征与屏幕上对象的位置不一致。
我觉得这似乎是我使用的逻辑中的一个小错误,但我似乎无法分解它,我非常感谢你们的帮助。
我已经在下面发布了我的代码,对于全局变量和混乱的结构,我深表歉意。我目前只是在测试,并计划在运行后立即清理并转换为 OOP 格式。
同样,这是我上传的 YouTube 视频的链接,该视频演示了我正在打击的行为。
opencv - Openframeworks 颜色跟踪
我正在 Openframeworks 中使用 OpenCV 来跟踪某种颜色。如果您不熟悉颜色跟踪代码,我的问题可能很困难,但我会尽力解释。
代码现在所做的是遵循带有红色圆圈的某种颜色,我正在努力创建一条基本相同的线,但每个点都将被存储,以便创建一种波浪形的绘图应用程序。现在它是一条可以拉的直线。
如有必要,我会发布更多代码。任何建议都会有帮助。谢谢!
测试应用程序.cpp
image - 低分辨率图像的特征检测器和描述符
我正在使用低分辨率 (VGA) 和 jpg 压缩的图像序列在移动机器人上进行视觉导航。目前我正在使用 SURF 来检测关键点并从图像中提取描述符,并使用 FLANN 来跟踪它们。在应用 RANSAC 之前,我每张图像获得 4000-5000 个特征,通常每对连续图像进行 350-450 个匹配(这通常会减少 20% 的匹配数)
我正在尝试增加比赛的数量(和质量)。我尝试了另外两个检测器:SIFT 和 ORB。SIFT 显着增加了特征的数量(总体上增加了 35% 的跟踪特征),但速度要慢得多。ORB 提取的特征大致与 SURF 一样多,但匹配性能要差得多(在最佳情况下约为 100 个匹配)。我在 ORB 的 opencv 中的实现是:
然后,匹配时:
在处理低分辨率和嘈杂的图像时,最好的特征检测器和提取器是什么?我应该根据使用的特征检测器更改 FLANN 中的任何参数吗?
编辑:
我发布了一些相当容易跟踪的序列的图片。这些图片是我将它们提供给特征检测器方法的。它们已经过预处理以消除一些噪音(通过 cv::bilateralFilter()
)
opencv - 跟踪图像中的运动模糊对象
我试图跟踪图像中移动物体的位置。我的相机的灵敏度非常低,导致曝光时间过长,所以我的物体变得严重运动模糊。我正在尝试使用 opencv 函数 matchTemplate 使用 NCC(相关性)跟踪它,将第一个未模糊图像作为模板,但是当对象移动时 - 它几乎“消失”,并且无法跟踪。知道如何找到任何保持可跟踪的“运动不变量”吗?
添加了模糊和原始。请注意,背景有时与汽车一样白......
matlab - 使用 Matlab 的视觉函数重新建立新的特征点
我正在使用 Matlab 的内置视觉功能和预制的示例代码来跟踪特征点。在我的示例视频中,相机水平平移,将新物体和风景引入视野,而之前的物体和风景移出视野。
当相机在场景中平移时尝试识别新特征点时会出现我的问题。我在 video-step while 循环中使用“detectMinEigenFeatures”函数,以便在经过指定数量的帧后找到新的特征点。然而,以某种方式这样做对重新建立新的特征点没有任何帮助。
一些快速信息:使用 GoPro 视频,采样到 720p 并保存为 .avi
代码发布在下面,我很乐意提供更多信息来帮助理解或解决这个问题。
谢谢!