我现在开始使用 CUDA,不得不承认我对 C API 有点失望。我理解选择 C 的原因,但是如果该语言是基于 C++ 的,那么有几个方面会简单得多,例如设备内存分配(通过cudaMalloc
)。
我的计划是自己做这件事,使用operator new
放置new
和 RAII 重载(两种选择)。我想知道到目前为止是否有任何我没有注意到的警告。该代码似乎有效,但我仍然想知道潜在的内存泄漏。
RAII代码的用法如下:
CudaArray<float> device_data(SIZE);
// Use `device_data` as if it were a raw pointer.
在这种情况下,一个类可能是矫枉过正(特别是因为你仍然必须使用cudaMemcpy
,类只封装 RAII)所以另一种方法是放置new
:
float* device_data = new (cudaDevice) float[SIZE];
// Use `device_data` …
operator delete [](device_data, cudaDevice);
在这里,cudaDevice
仅仅作为一个标签来触发过载。然而,由于在正常放置中new
这将指示放置,我发现语法奇怪地一致,甚至可能比使用类更可取。
我会很感激各种批评。是否有人可能知道下一个版本的 CUDA 是否计划在这个方向上做一些事情(正如我所听说的,这将改进其对 C++ 的支持,无论他们的意思是什么)。
所以,我的问题实际上是三个方面:
- 我的展示位置
new
重载在语义上是否正确?它会泄漏内存吗? - 有没有人知道未来 CUDA 发展朝着这个大方向发展的信息(让我们面对现实:C++ s*ck 中的 C 接口)?
- 我怎样才能以一致的方式更进一步(还有其他 API 需要考虑,例如不仅有设备内存,还有常量内存存储和纹理内存)?
// Singleton tag for CUDA device memory placement.
struct CudaDevice {
static CudaDevice const& get() { return instance; }
private:
static CudaDevice const instance;
CudaDevice() { }
CudaDevice(CudaDevice const&);
CudaDevice& operator =(CudaDevice const&);
} const& cudaDevice = CudaDevice::get();
CudaDevice const CudaDevice::instance;
inline void* operator new [](std::size_t nbytes, CudaDevice const&) {
void* ret;
cudaMalloc(&ret, nbytes);
return ret;
}
inline void operator delete [](void* p, CudaDevice const&) throw() {
cudaFree(p);
}
template <typename T>
class CudaArray {
public:
explicit
CudaArray(std::size_t size) : size(size), data(new (cudaDevice) T[size]) { }
operator T* () { return data; }
~CudaArray() {
operator delete [](data, cudaDevice);
}
private:
std::size_t const size;
T* const data;
CudaArray(CudaArray const&);
CudaArray& operator =(CudaArray const&);
};
关于这里使用的单身人士:是的,我知道它的缺点。但是,这些在这种情况下无关紧要。我在这里只需要一个不可复制的小型标签。其他一切(即多线程注意事项、初始化时间)都不适用。