我有我正在做的这个项目。该项目的一部分涉及多次测试运行,在此期间会截取应用程序窗口的屏幕截图。现在,我们必须确保在连续运行之间截取的屏幕截图匹配(除非进行一些允许的更改)。这些更改可能是我们正在截屏的应用程序窗口中的文件名、日期、不同的徽标等。
我有一个绝妙的想法来自动化执行此检查的过程。基本上我的想法是这样的。如果我能以某种数学方式量化第 N-1 次运行和第 N 次运行的屏幕截图之间的差异,我可以创建一个二进制标记数据集,将某种特征向量映射到一个标签(0 表示通过,1 表示失败,如果图像没有充分匹配)。所有这一切的原因是,我的标记数据将有助于使模型了解可以接受的更改规模,因为可以接受的类型太多了。
现在假设我可以访问大量我精心标记的数据,数以千计。到目前为止,我已经尝试在 opencv 中使用 SIFT 使用关键点匹配来确定图像之间的相似度得分。但这不是一个智能的学习过程。有什么方法可以从 SIFT 中获取一些信息并将其用作我的数据集中的 x 值?
以下是我的问题:
我需要什么信息作为我的 x 值?它必须是代表两个图像之间差异的东西。那么也许来自 SIFT 的特征向量之间的区别?当这些向量的尺寸略有不同时,我该怎么办?
我是否在考虑使用 SIFT 的正确轨道上?我应该去别处看看,如果是的话,去哪里?
谢谢你的时间!