我在恒定的“视频流”中将 jpeg 与 jpeg 进行比较。我正在使用 EMGU/OpenCV 在字节级别比较每个像素。每个图像 (RGB) 有 3 个通道。我听说通常的做法是只存储在帧之间发生变化的像素作为节省内存空间的一种方式。但是,例如,如果我说每个像素都发生了变化(请注意,我使用了一个夸张的例子来说明我的观点,我通常会丢弃如此大的变化),那么保存的结果字节是原始 jpeg 的 3 倍。
我怎样才能有效地存储这种运动变化?
谢谢
我在恒定的“视频流”中将 jpeg 与 jpeg 进行比较。我正在使用 EMGU/OpenCV 在字节级别比较每个像素。每个图像 (RGB) 有 3 个通道。我听说通常的做法是只存储在帧之间发生变化的像素作为节省内存空间的一种方式。但是,例如,如果我说每个像素都发生了变化(请注意,我使用了一个夸张的例子来说明我的观点,我通常会丢弃如此大的变化),那么保存的结果字节是原始 jpeg 的 3 倍。
我怎样才能有效地存储这种运动变化?
谢谢
在拍摄连续图像时,相机也可能会移动或不移动。如果相机是固定的,那么每次只有视图上的项目会移动,并且图像的某些部分会发生变化。如果相机也移动,即使物体静止不动,图像也会发生显着变化。有一些算法可以丢弃相机运动的影响。因此,主要思想是与相机的采样频率(例如每秒 25 帧)相比,大多数物体几乎静止不动。
由于帧之间的大部分图像是不变的,因此使用图像的差异变得可行。它提供了一些压缩比。但是经过一段时间后,新接收到的图像与参考图像有很大差异,因此最好获得新的图像参考。这被称为“参考框架”。
事实上,现代视频压缩算法使用先进的技术来检测对象并跟踪它们,从而获得更好的压缩比。