0

我在 jsperf.com 上创建了 3 种排序方法的测试:冒泡、插入和合并。关联

在测试之前,我创建了随机数从 0 到 1Mln 的未排序数组。每次测试都表明插入排序比合并排序快。这种结果的原因是什么,如果合并排序时间 O(n log(n)) 而插入和冒泡排序在 这里有 O(n^2) 测试结果

4

2 回答 2

0

正如 Amadan 评论的那样,合并排序最好一次性分配与要排序的数组相同的大小。自顶向下合并排序使用递归来生成合并使用的索引,而自底向上跳过递归并使用迭代来生成索引。大部分时间将花费在子数组的实际合并上,因此自上而下在较大数组(100 万个元素或更多)上的额外开销仅为 5% 左右。

用于某种优化的自下而上合并排序的示例 C++ 代码。

void MergeSort(int a[], size_t n)           // entry function
{
    if(n < 2)                               // if size < 2 return
        return;
    int *b = new int[n];
    BottomUpMergeSort(a, b, n);
    delete[] b;
}

size_t GetPassCount(size_t n)               // return # passes
{
    size_t i = 0;
    for(size_t s = 1; s < n; s <<= 1)
        i += 1;
    return(i);
}

void BottomUpMergeSort(int a[], int b[], size_t n)
{
size_t s = 1;                               // run size 
    if(GetPassCount(n) & 1){                // if odd number of passes
        for(s = 1; s < n; s += 2)           // swap in place for 1st pass
            if(a[s] < a[s-1])
                std::swap(a[s], a[s-1]);
        s = 2;
    }
    while(s < n){                           // while not done
        size_t ee = 0;                      // reset end index
        while(ee < n){                      // merge pairs of runs
            size_t ll = ee;                 // ll = start of left  run
            size_t rr = ll+s;               // rr = start of right run
            if(rr >= n){                    // if only left run
                rr = n;
                BottomUpCopy(a, b, ll, rr); //   copy left run
                break;                      //   end of pass
            }
            ee = rr+s;                      // ee = end of right run
            if(ee > n)
                ee = n;
            // merge a pair of runs
            BottomUpMerge(a, b, ll, rr, ee);
        }
        std::swap(a, b);                    // swap a and b
        s <<= 1;                            // double the run size
    }
}

void BottomUpCopy(int a[], int b[], size_t ll, size_t rr)
{
    while(ll < rr){                         // copy left run
        b[ll] = a[ll];
        ll++;
    }
}

void BottomUpMerge(int a[], int b[], size_t ll, size_t rr, size_t ee)
{
    size_t o = ll;                          // b[]       index
    size_t l = ll;                          // a[] left  index
    size_t r = rr;                          // a[] right index
    while(1){                               // merge data
        if(a[l] <= a[r]){                   // if a[l] <= a[r]
            b[o++] = a[l++];                //   copy a[l]
            if(l < rr)                      //   if not end of left run
                continue;                   //     continue (back to while)
            while(r < ee)                   //   else copy rest of right run
                b[o++] = a[r++];
            break;                          //     and return
        } else {                            // else a[l] > a[r]
            b[o++] = a[r++];                //   copy a[r]
            if(r < ee)                      //   if not end of right run
                continue;                   //     continue (back to while)
            while(l < rr)                   //   else copy rest of left run
                b[o++] = a[l++];
            break;                          //     and return
        }
    }
}
于 2015-11-02T09:20:31.597 回答
0

无需更多测试,暂定答案:

您的插入排序是相当优化的 - 您只是切换元素。您的合并排序使用 实例化新数组,并使用and[]创建新数组,这是一个很大的内存管理开销,更不用说在它们内部有隐式循环(尽管在本机代码中)。合并排序在就地完成时是有效的;随着所有复制的进行,这应该会让你慢很多。sliceconcatconcatslice

于 2015-11-02T05:39:26.327 回答