21

我需要实现一个前缀和算法,并且需要它尽可能快。
前任:

[3, 1,  7,  0,  4,  1,  6,  3]

应该给:

[3, 4, 11, 11, 15, 16, 22, 25]

有没有办法使用 SSE SIMD CPU 指令来做到这一点?

我的第一个想法是递归地对每一对并行求和,直到所有总和都计算如下!

//in parallel do 
for (int i = 0; i < z.length; i++) {
    z[i] = x[i << 1] + x[(i << 1) + 1];
}

为了让算法更清晰一点,z不是最终输出,而是用于计算输出。

int[] w = computePrefixSum(z);
for (int i = 1; i < ouput.length; i++) {
    ouput[i] = (i % 2 == 0) ? (x[i] + ouput[i - 1]) :  w[(i - 1) >> 1];
}
4

5 回答 5

12

我所知道的最快的并行前缀求和算法是在两遍并行中运行总和,并在第二遍中也使用 SSE。

在第一遍中,您并行计算部分和并存储每个部分和的总和。在第二遍中,您将前一个部分总和的总和添加到下一个部分总和。您可以使用多个线程(例如,使用 OpenMP)并行运行两个通道。第二遍您也可以使用 SIMD,因为每个部分总和都添加了一个常数值。

假设n数组元素、m核心和 SIMD 宽度w的时间成本应该是

n/m + n/(m*w) = (n/m)*(1+1/w)

由于第一次通过不使用 SIMD,因此时间成本将始终大于n/m

例如,对于 SIMD_width 为 4 的四个内核(带有 SSE 的四个 32 位浮点数),成本将为5n/16. 或者比具有时间成本的顺序代码快 3.2 倍n。使用超线程,速度会更快。

在特殊情况下,也可以在第一遍使用 SIMD。那么时间成本很简单

2*n/(m*w)

我发布了一般情况下的代码,它使用 OpenMP 作为 SSE 代码的线程和内在函数,并在以下链接中讨论了有关特殊情况的详细信息 parallel-prefix-cumulative-sum-with-sse

编辑:我设法为第一遍找到了一个 SIMD 版本,它的速度大约是顺序代码的两倍。现在,我的四核常春藤桥系统总共获得了大约 7 的提升。

编辑: 对于较大的数组,一个问题是在第一次通过后,大多数值已从缓存中清除。我想出了一个解决方案,它在一个块内并行运行,但串行运行每个块。这chunk_size是一个应该调整的值。例如,我将其设置为 1MB = 256K 浮点数。现在,当值仍在二级缓存中时,第二遍就完成了。这样做会给大型阵列带来很大的改进。

这是 SSE 的代码。AVX 代码的速度差不多,所以我没有在这里发布。进行前缀求和的函数是scan_omp_SSEp2_SSEp1_chunk。将浮点数数组传递给它,并用累积和a填充数组。s

__m128 scan_SSE(__m128 x) {
    x = _mm_add_ps(x, _mm_castsi128_ps(_mm_slli_si128(_mm_castps_si128(x), 4))); 
    x = _mm_add_ps(x, _mm_shuffle_ps(_mm_setzero_ps(), x, 0x40)); 
    return x;
}

float pass1_SSE(float *a, float *s, const int n) {
    __m128 offset = _mm_setzero_ps();
    #pragma omp for schedule(static) nowait
    for (int i = 0; i < n / 4; i++) {
        __m128 x = _mm_load_ps(&a[4 * i]);
        __m128 out = scan_SSE(x);
        out = _mm_add_ps(out, offset);
        _mm_store_ps(&s[4 * i], out);
        offset = _mm_shuffle_ps(out, out, _MM_SHUFFLE(3, 3, 3, 3));
    }
    float tmp[4];
    _mm_store_ps(tmp, offset);
    return tmp[3];
}

void pass2_SSE(float *s, __m128 offset, const int n) {
    #pragma omp for schedule(static)
    for (int i = 0; i<n/4; i++) {
        __m128 tmp1 = _mm_load_ps(&s[4 * i]);
        tmp1 = _mm_add_ps(tmp1, offset);
        _mm_store_ps(&s[4 * i], tmp1);
    }
}

void scan_omp_SSEp2_SSEp1_chunk(float a[], float s[], int n) {
    float *suma;
    const int chunk_size = 1<<18;
    const int nchunks = n%chunk_size == 0 ? n / chunk_size : n / chunk_size + 1;
    //printf("nchunks %d\n", nchunks);
    #pragma omp parallel
    {
        const int ithread = omp_get_thread_num();
        const int nthreads = omp_get_num_threads();

        #pragma omp single
        {
            suma = new float[nthreads + 1];
            suma[0] = 0;
        }

        float offset2 = 0.0f;
        for (int c = 0; c < nchunks; c++) {
            const int start = c*chunk_size;
            const int chunk = (c + 1)*chunk_size < n ? chunk_size : n - c*chunk_size;
            suma[ithread + 1] = pass1_SSE(&a[start], &s[start], chunk);
            #pragma omp barrier
            #pragma omp single
            {
                float tmp = 0;
                for (int i = 0; i < (nthreads + 1); i++) {
                    tmp += suma[i];
                    suma[i] = tmp;
                }
            }
            __m128 offset = _mm_set1_ps(suma[ithread]+offset2);
            pass2_SSE(&s[start], offset, chunk);
            #pragma omp barrier
            offset2 = s[start + chunk-1];
        }
    }
    delete[] suma;
}
于 2013-10-21T14:03:57.690 回答
11

您可以利用一些较小的并行性来实现较大的寄存器长度和较小的总和。例如,将 16 个 1 字节的值相加(恰好适合一个 sse 寄存器)只需要 log 2 16 加法和相等数量的移位。
不多,但快于 15 次依赖添加和额外的内存访问。

__m128i x = _mm_set_epi8(3,1,7,0,4,1,6,3,3,1,7,0,4,1,6,3);
x = _mm_add_epi8(x, _mm_srli_si128(x, 1));
x = _mm_add_epi8(x, _mm_srli_si128(x, 2));
x = _mm_add_epi8(x, _mm_srli_si128(x, 4));
x = _mm_add_epi8(x, _mm_srli_si128(x, 8));

// x == 3, 4, 11, 11, 15, 16, 22, 25, 28, 29, 36, 36, 40, 41, 47, 50

如果总和更长,则可以通过利用指令级并行性和利用指令重新排序来隐藏依赖关系。

编辑:像

__m128i x0 = _mm_set_epi8(3,1,7,0,4,1,6,3,3,1,7,0,4,1,6,3);
__m128i x1 = _mm_set_epi8(3,1,7,0,4,1,6,3,3,1,7,0,4,1,6,3);
__m128i x2 = _mm_set_epi8(3,1,7,0,4,1,6,3,3,1,7,0,4,1,6,3);
__m128i x3 = _mm_set_epi8(3,1,7,0,4,1,6,3,3,1,7,0,4,1,6,3);

__m128i mask = _mm_set_epi8(0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0);

x0 = _mm_add_epi8(x0, _mm_srli_si128(x0, 1));
x1 = _mm_add_epi8(x1, _mm_srli_si128(x1, 1));
x2 = _mm_add_epi8(x2, _mm_srli_si128(x2, 1));
x3 = _mm_add_epi8(x3, _mm_srli_si128(x3, 1));

x0 = _mm_add_epi8(x0, _mm_srli_si128(x0, 2));
x1 = _mm_add_epi8(x1, _mm_srli_si128(x1, 2));
x2 = _mm_add_epi8(x2, _mm_srli_si128(x2, 2));
x3 = _mm_add_epi8(x3, _mm_srli_si128(x3, 2));

x0 = _mm_add_epi8(x0, _mm_srli_si128(x0, 4));
x1 = _mm_add_epi8(x1, _mm_srli_si128(x1, 4));
x2 = _mm_add_epi8(x2, _mm_srli_si128(x2, 4));
x3 = _mm_add_epi8(x3, _mm_srli_si128(x3, 4));

x0 = _mm_add_epi8(x0, _mm_srli_si128(x0, 8));
x1 = _mm_add_epi8(x1, _mm_srli_si128(x1, 8));
x2 = _mm_add_epi8(x2, _mm_srli_si128(x2, 8));
x3 = _mm_add_epi8(x3, _mm_srli_si128(x3, 8));

x1 = _mm_add_epi8(_mm_shuffle_epi8(x0, mask), x1);
x2 = _mm_add_epi8(_mm_shuffle_epi8(x1, mask), x2);
x3 = _mm_add_epi8(_mm_shuffle_epi8(x2, mask), x3);
于 2012-05-14T18:50:27.017 回答
9

prefix-sum 可以并行计算,它实际上是 GPU 编程中的基础算法之一。如果您在英特尔处理器上使用 SIMD 扩展,我不确定并行执行是否真的会让您受益匪浅,但请查看 nvidia 关于实现并行前缀和的这篇论文(只需查看算法并忽略CUDA):与 CUDA 并行前缀和(扫描)

于 2012-05-14T17:29:21.333 回答
8

对于 1000 个 32 位整数的数组,我能够在英特尔 Sandybridge 的循环中使用 @hirschhornsalz 的方法获得大约 1.4 倍单线程的小加速。使用 60kiB 的整数缓冲区,加速比约为 1.37。使用 8MiB 的整数,加速比仍然是 1.13。(i5-2500k,3.8GHz 涡轮增压,DDR3-1600。)

对于每个向量的元素数量每翻一番,较小的元素(int16_t或,或无符号版本)将需要一个额外的移位/加法阶段。uint8_t溢出是不好的,所以不要尝试使用不能保存所有元素总和的数据类型,即使它给 SSE 带来了更大的优势。

#include <immintrin.h>

// In-place rewrite an array of values into an array of prefix sums.
// This makes the code simpler, and minimizes cache effects.
int prefix_sum_sse(int data[], int n)
{
//    const int elemsz = sizeof(data[0]);
#define elemsz sizeof(data[0])   // clang-3.5 doesn't allow compile-time-const int as an imm8 arg to intrinsics

    __m128i *datavec = (__m128i*)data;
    const int vec_elems = sizeof(*datavec)/elemsz;
    // to use this for int8/16_t, you still need to change the add_epi32, and the shuffle

    const __m128i *endp = (__m128i*) (data + n - 2*vec_elems);  // don't start an iteration beyond this
    __m128i carry = _mm_setzero_si128();
    for(; datavec <= endp ; datavec += 2) {
        IACA_START
        __m128i x0 = _mm_load_si128(datavec + 0);
        __m128i x1 = _mm_load_si128(datavec + 1); // unroll / pipeline by 1
//      __m128i x2 = _mm_load_si128(datavec + 2);
//      __m128i x3;

        x0 = _mm_add_epi32(x0, _mm_slli_si128(x0, elemsz));  // for floats, use shufps not bytewise-shift
        x1 = _mm_add_epi32(x1, _mm_slli_si128(x1, elemsz));

        x0 = _mm_add_epi32(x0, _mm_slli_si128(x0, 2*elemsz));
        x1 = _mm_add_epi32(x1, _mm_slli_si128(x1, 2*elemsz));

    // more shifting if vec_elems is larger

        x0 = _mm_add_epi32(x0, carry);  // this has to go after the byte-shifts, to avoid double-counting the carry.
        _mm_store_si128(datavec +0, x0); // store first to allow destructive shuffle (non-avx pshufb if needed)

        x1 = _mm_add_epi32(_mm_shuffle_epi32(x0, _MM_SHUFFLE(3,3,3,3)), x1);
        _mm_store_si128(datavec +1, x1);

        carry = _mm_shuffle_epi32(x1, _MM_SHUFFLE(3,3,3,3)); // broadcast the high element for next vector
    }
    // FIXME: scalar loop to handle the last few elements
    IACA_END
    return data[n-1];
    #undef elemsz
}

int prefix_sum_simple(int data[], int n)
{
    int sum=0;
    for (int i=0; i<n ; i++) {
        IACA_START
        sum += data[i];
        data[i] = sum;
    }
    IACA_END
    return sum;
}

// perl -we '$n=1000; sub rnlist($$) { return map { int rand($_[1]) } ( 1..$_[0] );}  @a=rnlist($n,127);   $"=", "; print "$n\n@a\n";'

int data[] = { 51, 83, 126, 11,   20, 63, 113, 102,
       126,67, 83, 113,   86, 123, 30, 109,
       97, 71, 109, 86,   67, 60,  47, 12,
       /* ... */ };


int main(int argc, char**argv)
{
    const int elemsz = sizeof(data[0]);
    const int n = sizeof(data)/elemsz;
    const long reps = 1000000 * 1000 / n;
    if (argc >= 2 && *argv[1] == 'n') {
        for (int i=0; i < reps ; i++)
            prefix_sum_simple(data, n);
    }else {
        for (int i=0; i < reps ; i++)
            prefix_sum_sse(data, n);
    }
    return 0;
}

使用 n=1000 进行测试,将列表编译成二进制文件。(是的,我检查了它实际上是循环的,没有采用任何使向量或非向量测试毫无意义的编译时快捷方式。)

请注意,使用 AVX 编译以获得 3 操作数无损向量指令可节省大量movdqa指令,但仅节省少量周期。这是因为 shuffle 和 vector-int-add 都只能在 SnB/IvB 上的端口 1 和 5 上运行,因此 port0 有足够的空闲周期来运行 mov 指令。uop-cache 吞吐量瓶颈可能是非 AVX 版本稍慢的原因。(所有这些额外的 mov 指令将我们推到 3.35 insn/cycle)。前端只有 4.54% 的周期空闲,所以它几乎没有跟上。

gcc -funroll-loops -DIACA_MARKS_OFF -g -std=c11 -Wall -march=native -O3 prefix-sum.c -mno-avx -o prefix-sum-noavx

  # gcc 4.9.2

################# SSE (non-AVX) vector version ############
$ ocperf.py stat -e task-clock,cycles,instructions,uops_issued.any,uops_dispatched.thread,uops_retired.all,uops_retired.retire_slots,stalled-cycles-frontend,stalled-cycles-backend ./prefix-sum-noavx 
perf stat -e task-clock,cycles,instructions,cpu/event=0xe,umask=0x1,name=uops_issued_any/,cpu/event=0xb1,umask=0x1,name=uops_dispatched_thread/,cpu/event=0xc2,umask=0x1,name=uops_retired_all/,cpu/event=0xc2,umask=0x2,name=uops_retired_retire_slots/,stalled-cycles-frontend,stalled-cycles-backend ./prefix-sum-noavx

 Performance counter stats for './prefix-sum-noavx':

        206.986720      task-clock (msec)         #    0.999 CPUs utilized          
       777,473,726      cycles                    #    3.756 GHz                    
     2,604,757,487      instructions              #    3.35  insns per cycle        
                                                  #    0.01  stalled cycles per insn
     2,579,310,493      uops_issued_any           # 12461.237 M/sec
     2,828,479,147      uops_dispatched_thread    # 13665.027 M/sec
     2,829,198,313      uops_retired_all          # 13668.502 M/sec (unfused domain)
     2,579,016,838      uops_retired_retire_slots # 12459.818 M/sec (fused domain)
        35,298,807      stalled-cycles-frontend   #    4.54% frontend cycles idle   
         1,224,399      stalled-cycles-backend    #    0.16% backend  cycles idle   

       0.207234316 seconds time elapsed
------------------------------------------------------------


######### AVX (same source, but built with -mavx).  not AVX2 #########
$ ocperf.py stat -e task-clock,cycles,instructions,uops_issued.any,uops_dispatched.thread,uops_retired.all,uops_retired.retire_slots,stalled-cycles-frontend,stalled-cycles-backend ./prefix-sum-avx

 Performance counter stats for './prefix-sum-avx':

        203.429021      task-clock (msec)         #    0.999 CPUs utilized          
       764,859,441      cycles                    #    3.760 GHz                    
     2,079,716,097      instructions              #    2.72  insns per cycle        
                                                  #    0.12  stalled cycles per insn
     2,054,334,040      uops_issued_any           # 10098.530 M/sec                  
     2,303,378,797      uops_dispatched_thread    # 11322.764 M/sec                  
     2,304,140,578      uops_retired_all          # 11326.509 M/sec                  
     2,053,968,862      uops_retired_retire_slots # 10096.735 M/sec                  
       240,883,566      stalled-cycles-frontend   #   31.49% frontend cycles idle   
         1,224,637      stalled-cycles-backend    #    0.16% backend  cycles idle   

       0.203732797 seconds time elapsed
------------------------------------------------------------


################## scalar version (cmdline arg) #############    
$ ocperf.py stat -e task-clock,cycles,instructions,uops_issued.any,uops_dispatched.thread,uops_retired.all,uops_retired.retire_slots,stalled-cycles-frontend,stalled-cycles-backend ./prefix-sum-avx n

 Performance counter stats for './prefix-sum-avx n':

        287.567070      task-clock (msec)         #    0.999 CPUs utilized          
     1,082,611,453      cycles                    #    3.765 GHz                    
     2,381,840,355      instructions              #    2.20  insns per cycle        
                                                  #    0.20  stalled cycles per insn
     2,272,652,370      uops_issued_any           # 7903.034 M/sec                  
     4,262,838,836      uops_dispatched_thread    # 14823.807 M/sec                  
     4,256,351,856      uops_retired_all          # 14801.249 M/sec                  
     2,256,150,510      uops_retired_retire_slots # 7845.650 M/sec                  
       465,018,146      stalled-cycles-frontend   #   42.95% frontend cycles idle   
         6,321,098      stalled-cycles-backend    #    0.58% backend  cycles idle   

       0.287901811 seconds time elapsed

------------------------------------------------------------    

Haswell 应该差不多,但每个时钟可能会稍微慢一些,因为 shuffle 只能在端口 5 上运行,而不能在端口 1 上运行。(在 Haswell 上,vector-int add 仍然是 p1/5。)

OTOH,IACA 认为 Haswell 在一次迭代中会比 SnB 稍快,如果你不编译的话-funroll-loops(这对 SnB 有帮助)。Haswell 可以在端口 6 上进行分支,但在 SnB 上的分支在端口 5 上,我们已经饱和了。

 # compile without -DIACA_MARKS_OFF
$ iaca -64 -mark 1 -arch HSW prefix-sum-avx    
Intel(R) Architecture Code Analyzer Version - 2.1
Analyzed File - prefix-sum-avx
Binary Format - 64Bit
Architecture  - HSW
Analysis Type - Throughput

*******************************************************************
Intel(R) Architecture Code Analyzer Mark Number 1
*******************************************************************

Throughput Analysis Report
--------------------------
Block Throughput: 6.20 Cycles       Throughput Bottleneck: Port5

Port Binding In Cycles Per Iteration:
---------------------------------------------------------------------------------------
|  Port  |  0   -  DV  |  1   |  2   -  D   |  3   -  D   |  4   |  5   |  6   |  7   |
---------------------------------------------------------------------------------------
| Cycles | 1.0    0.0  | 5.8  | 1.4    1.0  | 1.4    1.0  | 2.0  | 6.2  | 1.0  | 1.3  |
---------------------------------------------------------------------------------------

N - port number or number of cycles resource conflict caused delay, DV - Divider pipe (on port 0)
D - Data fetch pipe (on ports 2 and 3), CP - on a critical path
F - Macro Fusion with the previous instruction occurred
* - instruction micro-ops not bound to a port
^ - Micro Fusion happened
# - ESP Tracking sync uop was issued
@ - SSE instruction followed an AVX256 instruction, dozens of cycles penalty is expected
! - instruction not supported, was not accounted in Analysis

| Num Of |                    Ports pressure in cycles                     |    |
|  Uops  |  0  - DV  |  1  |  2  -  D  |  3  -  D  |  4  |  5  |  6  |  7  |    |
---------------------------------------------------------------------------------
|   1    |           |     | 1.0   1.0 |           |     |     |     |     |    | vmovdqa xmm2, xmmword ptr [rax]
|   1    | 1.0       |     |           |           |     |     |     |     |    | add rax, 0x20
|   1    |           |     |           | 1.0   1.0 |     |     |     |     |    | vmovdqa xmm3, xmmword ptr [rax-0x10]
|   1    |           |     |           |           |     | 1.0 |     |     | CP | vpslldq xmm1, xmm2, 0x4
|   1    |           | 1.0 |           |           |     |     |     |     |    | vpaddd xmm2, xmm2, xmm1
|   1    |           |     |           |           |     | 1.0 |     |     | CP | vpslldq xmm1, xmm3, 0x4
|   1    |           | 1.0 |           |           |     |     |     |     |    | vpaddd xmm3, xmm3, xmm1
|   1    |           |     |           |           |     | 1.0 |     |     | CP | vpslldq xmm1, xmm2, 0x8
|   1    |           | 1.0 |           |           |     |     |     |     |    | vpaddd xmm2, xmm2, xmm1
|   1    |           |     |           |           |     | 1.0 |     |     | CP | vpslldq xmm1, xmm3, 0x8
|   1    |           | 1.0 |           |           |     |     |     |     |    | vpaddd xmm3, xmm3, xmm1
|   1    |           | 0.9 |           |           |     | 0.2 |     |     | CP | vpaddd xmm1, xmm2, xmm0
|   2^   |           |     |           |           | 1.0 |     |     | 1.0 |    | vmovaps xmmword ptr [rax-0x20], xmm1
|   1    |           |     |           |           |     | 1.0 |     |     | CP | vpshufd xmm1, xmm1, 0xff
|   1    |           | 0.9 |           |           |     | 0.1 |     |     | CP | vpaddd xmm0, xmm1, xmm3
|   2^   |           |     | 0.3       | 0.3       | 1.0 |     |     | 0.3 |    | vmovaps xmmword ptr [rax-0x10], xmm0
|   1    |           |     |           |           |     | 1.0 |     |     | CP | vpshufd xmm0, xmm0, 0xff
|   1    |           |     |           |           |     |     | 1.0 |     |    | cmp rax, 0x602020
|   0F   |           |     |           |           |     |     |     |     |    | jnz 0xffffffffffffffa3
Total Num Of Uops: 20

顺便说一句,gcc 将循环编译为使用单寄存器寻址模式,即使我有一个循环计数器并且正在执行load(datavec + i + 1). 这是最好的代码,尤其是。在 SnB 系列上,2 寄存器寻址模式无法进行微熔断,因此我将源更改为该循环条件以利于铿锵声。

于 2015-09-10T12:12:34.383 回答
3

注意:在 C++ 标准中,“前缀和”被称为“包含扫描”,所以这就是我们所说的。

我们已将@Z bozon 的答案(感谢出色的工作!)的 SIMD 部分移植并推广到eve library中的所有 x86(sse-avx512)和 arm(neon/aarch-64)。它是开源的并获得 MIT 许可。

注意:我们仅支持与 skylake-avx512 匹配的 AVX-512 版本。如果您的机器不支持所有要求,我们将使用 avx2。

我们还支持在并行数组上执行此操作,例如,您可以对复数进行包容性扫描:example

在这里你可以看到我们为不同的架构生成的 asm(你可以为不同的类型更改 T 类型):godbolt。如果链接过时,arm-64avx-2

这里有一些数字int,用于不同的 x86 架构,与 10'000 字节数据上的标量代码相比。处理器 intel-9700k。

注意:不幸的是,目前还没有针对 arm 的基准。

整数结果

在 sse2-sse4 上,我们大约快 1.6-1.7 倍,在 avx2 上 - 大约 2 倍。

该算法的限制是cardinal / log(cardinal)- 所以4 / 2- 在 sse2-sse4.2 上是 2 次,在 avx28 / 3上是 2.7 次 - 我们离我们不远了。

线程呢?

eve 库中,我们不直接处理线程,但是我们有inclusive_scan并且transform哪些是执行并行版本的构建块。

这是我在 eve 之上的并行/矢量化版本的草图。不过,我std::async/std::future在示例中使用了一些不错的线程库,这很糟糕。

其他相关能力

如果要保留原始数据,可以使用inclusive_scan_to代替,没问题。inlcusive_scan_toinclusive_scan_inplace

我们还支持不同的类型(与标准包含扫描的方式相同) - 因此您可以将浮点数求和到双精度数等。浮动到双打

我们支持自定义plus操作,因此您可以根据需要使用 min。我已经提到zip了一次扫描多个阵列的能力。 例子

如果您想尝试并需要帮助,请随时在库上创建问题。

于 2021-10-05T14:36:53.360 回答