0

我正在尝试测量在 Windows 上执行某些代码所花费的 CPU 周期。在运行上面的代码(Visual C++ 11)时,我注意到 CPU 周期可能因运行而异。由于没有涉及显式 I/O,我不知道为什么会发生这种情况。

一般来说,线程花费的 CPU 周期与执行的指令量之间有什么关系?我可以使用 CPU 周期作为近似值吗?

#include "stdafx.h"
#include <windows.h>
#include <iostream>
#include <algorithm>
int _tmain(int argc, _TCHAR* argv[])
{
    unsigned __int64 thread_cycle1;
    unsigned __int64 thread_cycle2;

    HANDLE thread_handle = GetCurrentThread();
    QueryThreadCycleTime(thread_handle, &thread_cycle1);

    // Code for profiling
    int a[] = {1,3,4,5,6,7,23,4,2,6,7,8,9};
    std::sort(a, a + sizeof(a) / sizeof(a[0]));

    QueryThreadCycleTime(thread_handle, &thread_cycle2);

    std::cout << thread_cycle2 - thread_cycle1 << " cycles";
    return 0;
}
4

1 回答 1

0

我认为您必须概括太多才能说 Cycles ~= # 执行的指令。不同的指令有不同的延迟。

您至少可以在以下链接中找到有关英特尔® 64 和 IA-32 的详细信息:

http://www.intel.co.uk/content/dam/doc/manual/64-ia-32-architectures-optimization-manual.pdf

附录 C 介绍了这种延迟。

至于为什么它们会有所不同,其他评论将适用,特别是因为缓存未命中会显着改变行为。

于 2013-04-18T15:40:13.847 回答