3

我正在运行一些时间和效率测试,并遇到了一些意想不到的行为。我发现如果我运行将所有系统 CPU 内核都固定为 100% 的其他后台进程,我的程序实际上运行得更快。这是一个简化的示例程序:

#define _XOPEN_SOURCE 600
#include <stdlib.h>
#include <stdio.h>
#include <time.h>

void vadd(const float *u, const float *v, float *y, int n) {
    int  i;

    for (i = 0; i < n; i++) {
        y[i] = u[i] + v[i];
    }
}

int main(int argc, char *argv[]) {
    int i, its = 100000, n = 16384;
    float *a, *b, *c;
    clock_t start, end;
    double cpu_time;

    /* Make sure alignment is the same on each run. */
    posix_memalign((void**)&a, 16, sizeof(float) * n);
    posix_memalign((void**)&b, 16, sizeof(float) * n);
    posix_memalign((void**)&c, 16, sizeof(float) * n);

    /* Some arbitrary initialization */
    for (i = 0; i < n; i++) {
        a[i] = i;
        b[i] = 4;
        c[i] = 0;
    }

    /* Now the real work */
    start = clock();
    for (i = 0; i < its; i++) {
        vadd(a, b, c, n);
    }
    end = clock();

    cpu_time = ((double) (end - start)) / CLOCKS_PER_SEC;
    printf("Done, cpu time: %f\n", cpu_time);

    return 0;
}

我在一个(相当旧的)奔腾 4 @ 2.8GHz 上运行,开启了超线程,它在 /proc/cpuinfo 中显示为两个处理器。

系统相对空闲时的输出:

$ ./test
Done, cpu time: 11.450000

现在加载所有核心:

$ md5sum /dev/zero& ./test; killall md5sum
Done, cpu time: 8.930000

这个结果是一致的。我猜我通过减少程序移动到另一个 CPU 的时间以某种方式提高了缓存效率,但这只是在黑暗中的一个镜头。任何人都可以证实或反驳这一点吗?

第二个问题:我很惊讶地发现 cpu_time 在每次运行中变化如此之大。上面使用的方法直接来自 GNU C 手册,我认为 usingclock()可以保护我免受由于其他进程使用 CPU 而导致的时序波动。显然,根据上述结果,情况并非如此。所以我的第二个问题是,这种clock()方法真的是衡量性能的正确方法吗?

更新:我已经查看了关于 CPU 频率缩放调节器的评论中的建议,我认为这不是这里发生的事情。我试图通过watch grep \"cpu MHz\" /proc/cpuinfo(如此处所建议)实时监控 CPU 速度,但在程序运行时我没有看到频率变化。我还应该在我的帖子中包含我正在运行一个相当旧的内核:2.6.25。

更新 2:我开始使用下面的脚本来处理启动的 md5sum 进程的数量。即使我启动的进程比逻辑 CPU 多,它也比单独运行要快。

更新 3:如果我在 BIOS 中关闭超线程,这种奇怪的行为就会消失,并且运行总是需要大约 11 秒的 CPU 时间。看起来超线程与它有关。

更新 4:我刚刚在双四核 Intel Xeon @ 2.5GHz 上运行它,并没有看到上述任何奇怪的行为。这个“问题”可能与我的特定硬件设置相当具体。

#!/bin/bash
declare -i num=$1

for (( num; num; num-- )); do
  md5sum /dev/zero &
done

time ./test
killall md5sum

--

$ ./run_test.sh 5
Done, cpu time: 9.070000

real    0m27.738s
user    0m9.021s
sys 0m0.052s

$ ./run_test.sh 2
Done, cpu time: 9.240000

real    0m15.297s
user    0m9.169s
sys 0m0.080s

$ ./run_test.sh 0
Done, cpu time: 11.040000

real    0m11.041s
user    0m11.041s
sys 0m0.004s
4

2 回答 2

1

所以我的第二个问题是,clock() 方法真的是衡量性能的正确方法吗?

您可能更喜欢使用clock_gettime(2)和朋友。另请阅读时间(7)

细节可能是硬件(即 CPU + 主板)和内核特定的。

于 2013-07-29T14:02:46.010 回答
0

在核心上运行单个进程时,clock()应该返回该进程运行所花费的时间。这包括内核实际执行的时间以及内核等待从缓存/内存中获取指令和数据等事情的时间,等待另一条指令所需的一条指令的结果等。基本上,对于这种情况,clock()返回“花在执行上的时间加上许多微小的差距”。

对于超线程,相同的内核由 2 个“逻辑 CPU”共享。核心使用一个进程中的所有这些微小间隙来执行另一个进程,并且核心在更短的时间内完成更多的总工作(由于更少的时间浪费等待)。在这种情况下,clock()函数应该测量什么?

例如,如果 2 个进程都在同一个核心上运行 10 秒,应该clock()说这两个进程每个都使用了 10 秒,还是应该clock()说两个进程每个都使用了一半的 10 秒?

我的理论是,在您的系统上clock()返回“消耗的核心时间/消耗核心时间的进程”。一个进程运行 10 秒clock()返回“10 秒”,其中 2 个进程共享内核,它们可能运行 16 秒而不是 20 秒(由于内核在“间隙”上浪费的时间较少)并clock()返回“16/ 2 = 每个进程 8 秒"; 当负载更多时,看起来进程运行速度快了 2 秒(即使它需要 16 秒而不是 10 秒)。

于 2013-07-29T15:46:18.863 回答