我正在为学校进行合并排序(排序字符串)的实证分析,我遇到了一个我无法解释或找不到解释的奇怪现象。当我运行我的代码时,我使用内置的 system.nanotime() 方法捕获运行时间,并且由于某种原因,在一定的输入大小下,执行排序例程实际上比使用更小的输入大小花费的时间更少。
我的算法只是一个基本的归并排序,我的测试代码也很简单:
//Get current system time
long start = System.nanoTime();
//Perform mergesort procedure
a = q.sort(a);
//Calculate total elapsed sort time
long time = System.nanoTime()-start;
我在对 900 个字符串进行排序时得到的经过时间的输出是:3928492ns 对于 1300 个字符串,它是:3541923ns
这两个都是大约 20 次试验的平均值,所以它非常一致。在 1300 个字符串之后,执行时间按预期继续增长。我在想可能有一些峰值输入大小,这种现象最明显。
所以我的问题是:什么可能导致程序速度突然提高?我在想可能会对包含大量数据的数组进行某种优化,尽管数组中的 1300 个项目并不大。
一些信息:
- 编译器:Java 版本 1.7.0_07
- 算法:基本递归归并排序(使用数组)
- 输入类型:字符串 6-10 个字符长,无序(随机顺序)
我错过了什么吗?