我有一个非常大的网络跟踪文件,每个数据包上有两个时间戳。我计算每对连续数据包的时间戳之间的差异。
delta_ts1 = ts1(packet N) - ts1(packet N-1)
delta_ts2 = ts2(packet N) - ts2(packet N-1)
假设 ts_2 是参考值,我想针对 ts_2 测试 ts_1。
而方差 ts_variance = (delta_ts2 - mean_ts)^2/packet_count
现在上述方法的问题是,直到我到达文件末尾我才得到平均值。我想在一个解析中实现这一点。我正在考虑使用如下方法
running_mean_till_now += ts2/packet_count_till_now
ts_variance = (delta_ts2 - running_mean_till_now)^2/packet_count_till_now
这种方法可以接受吗?使用这种方法,估计的方差和标准偏差有多准确?