4

我已经分析了我拥有的一个 AVX2-heavy 功能​​,瓶颈如下所示:

std::uint64_t data[8];

// Some computation that fills data

std::uint64_t X[4] = { data[7], data[5], data[3], data[1] };
__m256i vec = _mm256_loadu_si256(reinterpret_cast<__m256i*>(X));

// Compute more with vec
// Later on use data[6], data[4], data[2], and data[0] in a similar fashion

实际上,数组也适当地对齐(load而不是loadu)。但问题是,有没有更快的方法用 AVX(2) 做到这一点?具体来说,我正在查看收集说明。我可以使用它们来初始化vecdata?或者其他一些说明值得在这里尝试吗?

4

1 回答 1

5

如果不知道您的编译器生成什么代码,就很难发表评论,但这里有一些我的编译器 (gcc) 必须说的话。

typedef unsigned long long uint64_t;
typedef uint64_t vec2 __attribute__((vector_size(8*sizeof(uint64_t))));
typedef uint64_t vec __attribute__((vector_size(4*sizeof(uint64_t))));
vec f(vec a,vec b){
  vec i={7,5,3,1};
  return __builtin_shuffle(a,b,i);
}
vec g(vec2 x){
  vec r={x[7],x[5],x[3],x[1]};
  return r;
}

我得到 f:

vpunpckhqdq %ymm1, %ymm0, %ymm1
vpermq  $39, %ymm1, %ymm0

我按值传递向量,通过指针传递它们会给出:

vmovdqa (%rdi), %ymm0
vpunpckhqdq (%rsi), %ymm0, %ymm0
vpermq  $39, %ymm0, %ymm0

对于 g:

vmovq   32(%rsp), %xmm2
vmovq   64(%rsp), %xmm3
vpinsrq $1, 16(%rsp), %xmm2, %xmm1
vpinsrq $1, 48(%rsp), %xmm3, %xmm0
vinserti128 $0x1, %xmm1, %ymm0, %ymm0
于 2014-07-02T20:22:21.340 回答