考虑以下测试程序:
int main( void ) {
int iterations = 1000000000;
while ( iterations > 0 )
-- iterations;
}
int main( void ) {
int iterations = 1000000000;
int * p = & iterations;
while ( * p > 0 )
-- * p;
}
#include <stdlib.h>
int main( void ) {
int * p = malloc( sizeof( int ) );
* p = 1000000000;
while ( *p > 0 )
-- * p;
}
通过使用 -O0 编译它们,我得到以下执行时间:
case1.c
real 0m2.698s
user 0m2.690s
sys 0m0.003s
case2.c
real 0m2.574s
user 0m2.567s
sys 0m0.000s
case3.c
real 0m2.566s
user 0m2.560s
sys 0m0.000s
[编辑] 以下是 10 次处决的平均值:
case1.c
2.70364
case2.c
2.57091
case3.c
2.57000
为什么第一个测试用例的执行时间更大,这似乎是最简单的?
我当前的架构是 x86 虚拟机(Archlinux)。我使用 gcc (4.8.0) 和 clang (3.3) 都得到了这些结果。
[编辑 1] 生成的汇编代码几乎相同,只是第二个和第三个的指令比第一个多。
[编辑 2] 这些表演是可重现的(在我的系统上)。每次执行将具有相同的数量级。
[编辑 3] 我并不真正关心非优化程序的性能,但我不明白为什么它会变慢,我很好奇。