0

我实现了一个返回时间的快速函数(使用 rdtsc),我们称之为fast_time()。我有参考使用系统调用的原始函数,我们称之为system_time()。我的程序使用fast_time()但在一个单独的线程中,我不断地运行一个 while 循环来检查从 my 函数返回的时间与原始函数之间的差异是否大于预定义的阈值。就像是

while (true)
{
    if (abs((fast_time() - system_time()).microseconds()) > MICROSECONDS_THRESHOLD)
    {
        report error
    }
}

通常我看不到错误,但有时我确实得到了错误,我想更好地理解这个问题。我的第一个怀疑是调用system_time()不会在fast_time()返回后立即发生。如何强制程序尽可能fast_time() - system_time()“原子地”执行?

4

1 回答 1

2

rdtsc 本质上是一种不可靠的实时测量方法,原因如下:

1)每个硬件线程将返回不同的值,因此如果您的线程未锁定到一个硬件线程,您将获得不同的值。所以时间可能会意外地来回跳跃,具体取决于操作系统如何调度线程

更重要的是:

2) CPU 节流会导致 CPU 的频率发生意外变化。因为 rdtsc 测量执行的周期而不是时间,所以您无法通过将周期数除以 CPU 频率来可靠地获得经过的时间(在两次 rdtsc 调用之间,频率可能会随机变化)

同样在您的特定测试用例中,操作系统可能会安排线程在 fast_time() 和 system_time() 调用之间产生,从而导致测量时间之间的差异,即使 fast_time() 会返回正确的值。因此,要回答您的问题,我认为没有任何方法可以防止这种情况发生。

于 2014-06-22T14:20:14.580 回答