12

我正在寻找一个能够解决近乎重复的视频检测问题的开源项目。最好的,我现在发现它是SOTU,但它的来源是封闭的。那么,是否有任何开源解决方案?

另外,我将非常感谢有关此问题的理论部分的一些链接。

4

2 回答 2

18

这是一个关于近乎重复的项目: 哥伦比亚大学 DVMM 实验室的INDetector(源代码可用,我认为不完全是开源的)。还有一些关于将其应用于视频的信息(主要是关键帧)。

还有pHash,一个用于图像的开源“感知哈希”库。

还有IMMI,一个用于 RapidMiner 的开源图像挖掘插件。

通过将所有帧或选定帧(例如关键帧)作为算法的输入,然后聚合来自两个不同剪辑的帧对的相似性结果,这些中的任何一个都可以应用于视频和图像。

您也可以尝试与 UQLIPS 的作者取得联系(Shen 等人,下文引用)。

此外,查看 TRECVID 的条目列表,有些年份将近乎重复的检测作为任务之一,您可能能够与其中一些团体取得联系并获得该软件。

如果您想自己实现这一目标,那么实现任何已发布算法的原型都应该相当容易。我建议 (a) 对您感兴趣的数据尝试一些简单的算法,并且 (b) 使用某种类型的投票/轮询过程来组合它们的输出,基于观察到简单算法的简单组合通常从根本上优于解决这类问题的单一复杂算法。

此外,查看地球移动器距离(在颜色直方图、梯度等上)以进行简单的特征提取(在所有帧上或仅在选定帧上)。这可以通过 python/numpy/scipy/pyopencv 中的几行代码方便地完成。

以下三篇可能是该领域被引用次数最多的论文,均来自不同的研究小组:

  1. 杨,J.,YG 江,AG Hauptmann 和 CW Ngo。“评估场景分类中的视觉词袋表示。” 在多媒体信息检索研讨会国际研讨会论文集上,197-206,2007。http://dl.acm.org/citation.cfm ?id= 1290111

  2. 沉、HT、X. Zhou、Z. Huang、J. Shao 和 X. Zhou。“UQLIPS:实时近乎重复的视频剪辑检测系统。” 在第 33 届超大型数据库国际会议论文集上,1374-1377,2007。http://dl.acm.org/citation.cfm?id= 1326018

  3. Wu, X.、AG Hauptmann 和 CW Ngo。“从网络视频搜索中实际消除近乎重复的内容。” 第 15 届国际多媒体会议论文集,218-227,2007。http://dl.acm.org/citation.cfm?id= 1291280

Yang 等人的方法与 SOTU 中使用的方法相同。

于 2012-12-28T11:22:09.713 回答
4

我认为AForge.NET库对您很有用。它们有一个组件可以让您执行运动检测,这本质上是对环境“理论”背景的“比较”。

我很确定您可以使用AForge.NET的一些基本工作并加速您对重复视频检测的研究。

希望这可以帮助,

祝你好运

于 2012-12-20T15:30:24.460 回答