我需要一种快速的方法来获取 64 位整数中所有一位的位置。例如,给定x = 123703
,我想填充一个数组idx[] = {0, 1, 2, 4, 5, 8, 9, 13, 14, 15, 16}
。我们可以假设我们先验地知道比特数。这将被称为 10 12 - 10 15次,因此速度至关重要。到目前为止,我想出的最快答案是以下怪物,它使用 64 位整数的每个字节作为表的索引,这些表给出了该字节中设置的位数和位的位置:
int64_t x; // this is the input
unsigned char idx[K]; // this is the array of K bits that are set
unsigned char *dst=idx, *src;
unsigned char zero, one, two, three, four, five; // these hold the 0th-5th bytes
zero = x & 0x0000000000FFUL;
one = (x & 0x00000000FF00UL) >> 8;
two = (x & 0x000000FF0000UL) >> 16;
three = (x & 0x0000FF000000UL) >> 24;
four = (x & 0x00FF00000000UL) >> 32;
five = (x & 0xFF0000000000UL) >> 40;
src=tab0+tabofs[zero ]; COPY(dst, src, n[zero ]);
src=tab1+tabofs[one ]; COPY(dst, src, n[one ]);
src=tab2+tabofs[two ]; COPY(dst, src, n[two ]);
src=tab3+tabofs[three]; COPY(dst, src, n[three]);
src=tab4+tabofs[four ]; COPY(dst, src, n[four ]);
src=tab5+tabofs[five ]; COPY(dst, src, n[five ]);
其中COPY
是一个最多复制 8 个字节的 switch 语句,n
是一个字节中设置的位数的数组,并tabofs
给出了偏移量tabX
,它保存了第 X 个字节中设置的位的位置。 (见下文。)我目前正在__builtin_ctz()
这比在我的 Xeon E5-2609 上展开的基于循环的方法快大约 3 倍。x
按字典顺序迭代给定数量的位集。
有没有更好的办法?
编辑:添加了一个示例(我随后修复了该示例)。完整代码可在此处获得:http: //pastebin.com/79X8XL2P。注意:带有 -O2 的 GCC 似乎优化了它,但英特尔的编译器(我曾经编写它)没有......
另外,让我提供一些额外的背景来解决下面的一些评论。目标是对 N 个可能的解释变量中的 K 个变量的每个可能子集进行统计检验;现在的具体目标是 N=41,但我可以看到一些项目需要 N 高达 45-50。该测试主要涉及分解相应的数据子矩阵。在伪代码中,是这样的:
double doTest(double *data, int64_t model) {
int nidx, idx[];
double submatrix[][];
nidx = getIndices(model, idx); // get the locations of ones in model
// copy data into submatrix
for(int i=0; i<nidx; i++) {
for(int j=0; j<nidx; j++) {
submatrix[i][j] = data[idx[i]][idx[j]];
}
}
factorize(submatrix, nidx);
return the_answer;
}
我为 Intel Phi 板编写了一个版本,它应该在大约 15 天内完成 N=41 的案例,其中约 5-10% 的时间花在了幼稚的getIndices()
情况下,所以马上一个更快的版本可以节省一天或更长时间。我也在研究 NVidia Kepler 的实现,但不幸的是,我遇到的问题(大量的小矩阵运算)并不非常适合硬件(非常大的矩阵运算)。也就是说,这篇论文提出了一个解决方案,通过积极展开循环并在寄存器中执行整个分解,似乎可以在我大小的矩阵上实现数百 GFLOPS/s,但需要注意的是在编译时定义矩阵的维度。(这个循环展开应该有助于减少开销并改进 Phi 版本中的矢量化,因此getIndices()
将变得更加重要!)所以现在我认为我的内核应该看起来更像:
double *data; // move data to GPU/Phi once into shared memory
template<unsigned int K> double doTestUnrolled(int *idx) {
double submatrix[K][K];
// copy data into submatrix
#pragma unroll
for(int i=0; i<K; i++) {
#pragma unroll
for(int j=0; j<K; j++) {
submatrix[i][j] = data[idx[i]][idx[j]];
}
}
factorizeUnrolled<K>(submatrix);
return the_answer;
}
Phi 版本在 `cilk_for' 循环中解决每个模型,从 model=0 到 2 N(或者,更确切地说,是用于测试的子集),但现在为了为 GPU 批量工作并分摊内核启动开销,我必须迭代每个 K=1 到 41 位集合的型号按字典顺序排列(如 doynax 所述)。
编辑 2: 现在假期结束了,这里是我的 Xeon E5-2602 使用 icc 版本 15 的一些结果。我用来基准测试的代码在这里:http ://pastebin.com/XvrGQUat 。我对恰好设置了 K 位的整数执行位提取,因此下表中“基本”列中测量的词典迭代存在一些开销。这些以 N=48 执行 2 30次(根据需要重复)。
"CTZ" 是一个循环,它使用 gcc 内在函数__builtin_ctzll
来获取最低位设置:
for(int i=0; i<K; i++) {
idx[i] = __builtin_ctzll(tmp);
lb = tmp & -tmp; // get lowest bit
tmp ^= lb; // remove lowest bit from tmp
}
Mark 是 Mark 的无分支 for 循环:
for(int i=0; i<K; i++) {
*dst = i;
dst += x & 1;
x >>= 1;
}
Tab1 是我最初的基于表格的代码,带有以下复制宏:
#define COPY(d, s, n) \
switch(n) { \
case 8: *(d++) = *(s++); \
case 7: *(d++) = *(s++); \
case 6: *(d++) = *(s++); \
case 5: *(d++) = *(s++); \
case 4: *(d++) = *(s++); \
case 3: *(d++) = *(s++); \
case 2: *(d++) = *(s++); \
case 1: *(d++) = *(s++); \
case 0: break; \
}
Tab2 与 Tab1 的代码相同,但复制宏仅将 8 个字节作为单个副本移动(借鉴 doynax 和 Lưu Vĩnh Phúc 的想法……但请注意,这并不能确保对齐):
#define COPY2(d, s, n) { *((uint64_t *)d) = *((uint64_t *)s); d+=n; }
这是结果。我猜我最初声称 Tab1 比 CTZ 快 3 倍,这仅适用于大 K(我正在测试的地方)。Mark 的循环比我的原始代码快,但是去掉COPY2
宏中的分支需要 K > 8 的蛋糕。
K Base CTZ Mark Tab1 Tab2
001 4.97s 6.42s 6.66s 18.23s 12.77s
002 4.95s 8.49s 7.28s 19.50s 12.33s
004 4.95s 9.83s 8.68s 19.74s 11.92s
006 4.95s 16.86s 9.53s 20.48s 11.66s
008 4.95s 19.21s 13.87s 20.77s 11.92s
010 4.95s 21.53s 13.09s 21.02s 11.28s
015 4.95s 32.64s 17.75s 23.30s 10.98s
020 4.99s 42.00s 21.75s 27.15s 10.96s
030 5.00s 100.64s 35.48s 35.84s 11.07s
040 5.01s 131.96s 44.55s 44.51s 11.58s