我正在为粒子传输编写一个简单的蒙特卡罗模拟。我的方法是为 CUDA 编写内核并将其作为 Mathematica 函数执行。
核心:
#include "curand_kernel.h"
#include "math.h"
extern "C" __global__ void monteCarlo(Real_t *transmission, mint seed, mint pathN) {
curandState rngState;
int index = threadIdx.x + blockIdx.x*blockDim.x;
curand_init(seed, index, 0, &rngState);
if (index < pathN) {
//-------------start one packet run----------------------
float packetWeight = 1.0;
int m = 0;
while(packetWeight > 0.0){
//MONTE CARLO CODE
// Test: still in the sample?
if(z_coordinate > sampleThickness){
packetWeight = 0;
z_coordinate = sampleThickness;
transmission[index]=1;
}
}
}
//-------------end one packet run------------------------
}
}
数学代码:
Needs["CUDALink`"];
cudaBM = CUDAFunctionLoad[code,
"monteCarlo", {{_Real, "Output"}, _Integer, _Integer}, 256,
"UnmangleCode" -> False];
pathN = 100000;
result = 0; (*count for transmitted particles*)
For[j = 0, j < 10, j++,
buffer = CUDAMemoryAllocate["Float", 100000];
cudaBM[buffer, 1490, pathN];
resultOneRun = Total[CUDAMemoryGet[buffer]];
result = result + resultOneRun;
];
到目前为止,一切似乎都可以正常工作,但与没有 CUDA 的纯 C 代码相比,速度提升微乎其微。我有两个问题:
- curand_init() 函数在每个求和步骤开始时由所有线程执行 -> 我可以为所有线程调用一次此函数吗?
- 内核返回给 Mathematica 一个非常大的实数数组(100 000)。我知道,CUDA 的瓶颈是 GPU 和 CPU 之间的通道带宽。我只需要列表中所有元素的总和,因此在 GPU 中计算列表元素的总和并只向 CPU 发送一个实数会更有效。