我环顾了这个站点和其他站点,但没有任何效果。我正在为我的具体案例发布一个问题。
我有一堆矩阵,目标是使用内核让 GPU 对所有矩阵执行相同的操作。我很确定我可以让内核工作,但我不能让 cudaMalloc / cudaMemcpy 工作。
我有一个指向 Matrix 结构的指针,该结构有一个名为 elements 的成员,它指向一些浮点数。我可以很好地完成所有非 cuda malloc。
感谢您的任何/所有帮助。
代码:
typedef struct {
int width;
int height;
float* elements;
} Matrix;
int main void() {
int rows, cols, numMat = 2; // These are actually determined at run-time
Matrix* data = (Matrix*)malloc(numMat * sizeof(Matrix));
// ... Successfully read from file into "data" ...
Matrix* d_data;
cudaMalloc(&d_data, numMat*sizeof(Matrix));
for (int i=0; i<numMat; i++){
// The next line doesn't work
cudaMalloc(&(d_data[i].elements), rows*cols*sizeof(float));
// Don't know if this works
cudaMemcpy(d_data[i].elements, data[i].elements, rows*cols*sizeof(float)), cudaMemcpyHostToDevice);
}
// ... Do other things ...
}
谢谢!