我对过滤器内核有一个奇怪的性能反转,无论有没有分支。带分支的内核比不带分支的内核运行速度快约 1.5 倍。
基本上我需要对一堆辐射射线进行排序,然后应用交互内核。由于附带的数据很多,我不能多次使用诸如推力::sort_by_key() 之类的东西。
算法思路:
- 为所有可能的交互类型(五个)运行一个循环
- 在每个循环中,warp 线程都会为其交互类型投票
- 循环完成后,每个 warp 线程都知道另一个具有相同交互类型的线程
- 线程选举他们的领导者(每个交互类型)
- 领导者使用 atomicAdd 更新交互偏移表
- 每个线程将其数据写入相应的偏移量
我使用了这篇 Nvidia 帖子中描述的技术https://devblogs.nvidia.com/parallelforall/cuda-pro-tip-optimized-filtering-warp-aggregated-atomics/
我的第一个内核在循环内包含一个分支并运行约 5 毫秒:
int active;
int leader;
int warp_progress;
for (int i = 0; i != hit_interaction_count; ++i)
{
if (i == decision)
{
active = __ballot(1);
leader = __ffs(active) - 1;
warp_progress = __popc(active);
}
}
我的第二个内核使用两个元素的查找表,不使用分支并运行约 8 毫秒:
int active = 0;
for (int i = 0; i != hit_interaction_count; ++i)
{
const int masks[2] = { 0, ~0 };
int mask = masks[i == decision];
active |= (mask & __ballot(mask));
}
int leader = __ffs(active) - 1;
int warp_progress = __popc(active);
共同部分:
int warp_offset;
if (lane_id() == leader)
warp_offset = atomicAdd(&interactions_offsets[decision], warp_progress);
warp_offset = warp_broadcast(warp_offset, leader);
...copy data here...
这个怎么可能?有什么方法可以实现这样的过滤器内核,使其运行速度比分支更快吗?
UPD:完整的源代码可在https://bitbucket.org/radiosity/engine/src的filter_kernel cuda_equation/radiance_cuda.cu 中找到