对于算法的计时(大约以毫秒为单位),这两种方法中的哪一种更好:
clock_t start = clock();
algorithm();
clock_t end = clock();
double time = (double) (end-start) / CLOCKS_PER_SEC * 1000.0;
或者,
time_t start = time(0);
algorithm();
time_t end = time(0);
double time = difftime(end, start) * 1000.0;
此外,从 Freenode 的 C++ 频道的一些讨论中,我知道时钟的分辨率非常差,因此对于(相对)快速算法而言,时间将为零。但是,哪个具有更好的分辨率 time() 或 clock()?还是一样?