我正在使用 clock() 来测量我的算法的 CPU 时间量。
代码如下:
start_time = clock();
//code to be timed
.
end_time = clock();
elapsed_time = (end_time - start_time)*1000 / CLOCKS_PER_SEC;
printf("Time taken %d seconds %d milliseconds\n", elapsed_time/1000, elapsed_time%1000 );
但结果是“0 秒 -175 毫秒”。我不明白为什么。并且似乎“1 秒 349 毫秒”实际上可能需要 10 分钟或更长时间。这很常见吗?