我正在运行一些时间和效率测试,并遇到了一些意想不到的行为。我发现如果我运行将所有系统 CPU 内核都固定为 100% 的其他后台进程,我的程序实际上运行得更快。这是一个简化的示例程序:
#define _XOPEN_SOURCE 600
#include <stdlib.h>
#include <stdio.h>
#include <time.h>
void vadd(const float *u, const float *v, float *y, int n) {
int i;
for (i = 0; i < n; i++) {
y[i] = u[i] + v[i];
}
}
int main(int argc, char *argv[]) {
int i, its = 100000, n = 16384;
float *a, *b, *c;
clock_t start, end;
double cpu_time;
/* Make sure alignment is the same on each run. */
posix_memalign((void**)&a, 16, sizeof(float) * n);
posix_memalign((void**)&b, 16, sizeof(float) * n);
posix_memalign((void**)&c, 16, sizeof(float) * n);
/* Some arbitrary initialization */
for (i = 0; i < n; i++) {
a[i] = i;
b[i] = 4;
c[i] = 0;
}
/* Now the real work */
start = clock();
for (i = 0; i < its; i++) {
vadd(a, b, c, n);
}
end = clock();
cpu_time = ((double) (end - start)) / CLOCKS_PER_SEC;
printf("Done, cpu time: %f\n", cpu_time);
return 0;
}
我在一个(相当旧的)奔腾 4 @ 2.8GHz 上运行,开启了超线程,它在 /proc/cpuinfo 中显示为两个处理器。
系统相对空闲时的输出:
$ ./test
Done, cpu time: 11.450000
现在加载所有核心:
$ md5sum /dev/zero& ./test; killall md5sum
Done, cpu time: 8.930000
这个结果是一致的。我猜我通过减少程序移动到另一个 CPU 的时间以某种方式提高了缓存效率,但这只是在黑暗中的一个镜头。任何人都可以证实或反驳这一点吗?
第二个问题:我很惊讶地发现 cpu_time 在每次运行中变化如此之大。上面使用的方法直接来自 GNU C 手册,我认为 usingclock()
可以保护我免受由于其他进程使用 CPU 而导致的时序波动。显然,根据上述结果,情况并非如此。所以我的第二个问题是,这种clock()
方法真的是衡量性能的正确方法吗?
更新:我已经查看了关于 CPU 频率缩放调节器的评论中的建议,我认为这不是这里发生的事情。我试图通过watch grep \"cpu MHz\" /proc/cpuinfo
(如此处所建议的)实时监控 CPU 速度,但在程序运行时我没有看到频率变化。我还应该在我的帖子中包含我正在运行一个相当旧的内核:2.6.25。
更新 2:我开始使用下面的脚本来处理启动的 md5sum 进程的数量。即使我启动的进程比逻辑 CPU 多,它也比单独运行要快。
更新 3:如果我在 BIOS 中关闭超线程,这种奇怪的行为就会消失,并且运行总是需要大约 11 秒的 CPU 时间。看起来超线程与它有关。
更新 4:我刚刚在双四核 Intel Xeon @ 2.5GHz 上运行它,并没有看到上述任何奇怪的行为。这个“问题”可能与我的特定硬件设置相当具体。
#!/bin/bash
declare -i num=$1
for (( num; num; num-- )); do
md5sum /dev/zero &
done
time ./test
killall md5sum
--
$ ./run_test.sh 5
Done, cpu time: 9.070000
real 0m27.738s
user 0m9.021s
sys 0m0.052s
$ ./run_test.sh 2
Done, cpu time: 9.240000
real 0m15.297s
user 0m9.169s
sys 0m0.080s
$ ./run_test.sh 0
Done, cpu time: 11.040000
real 0m11.041s
user 0m11.041s
sys 0m0.004s