12

我已经被这个错误困扰了很长一段时间,所以我决定在这里发布它。

调用 cudaMemcpy 时会发生此分段错误:

CurrentGrid->cdata[i] = new float[size];
cudaMemcpy(CurrentGrid->cdata[i], Grid_dev->cdata[i], size*sizeof(float),\
                cudaMemcpyDeviceToHost);

CurrentGrid并且Grid_dev分别是指向grid主机和设备上的类对象的指针,在此上下文中 i=0。类成员cdata是一个浮点型指针数组。为了调试,就在调用 cudaMemcpy 之前,我打印了 的每个元素的值、和Grid_Dev->cdata[i]的地址CurrentGrid->cdata[i]以及Grid_dev->cdata[i]的值size,看起来都不错。但它仍然以“Segmentation fault (core dumped)”告终,这是唯一的错误消息。cuda-memcheck 只给出“进程没有成功终止”。我目前无法使用 cuda-gdb。关于去哪里有什么建议吗?

更新:现在看来我已经通过 cudaMalloc 解决了这个问题,设备上的另一个浮点指针 A 和 cudaMemcpy Grid_dev->cdata[i] 的值到 A,然后 cudaMemcpy A 到主机。所以上面写的这段代码就变成了:

float * A;
cudaMalloc((void**)&A, sizeof(float));
...
...
cudaMemcpy(&A, &(Grid_dev->cdata[i]), sizeof(float *), cudaMemcpyDeviceToHost);    
CurrentGrid->cdata[i] = new float[size];
cudaMemcpy(CurrentGrid->cdata[i], A, size*sizeof(float), cudaMemcpyDeviceToHost);            

我这样做是因为 valgrind 弹出“大小为 8 的无效读取”,我认为这是指Grid_dev->cdata[i]. 我用 gdb 再次检查它,打印出Grid_dev->cdata[i]为 NULL 的值。所以我想即使在这个 cudaMemcpy 调用中我也不能直接取消引用设备指针。但为什么 ?根据该线程底部的评论,我们应该能够在 cudaMemcpy 函数中取消引用设备指针。

另外,我不知道 cudaMalloc 和 cudaMemcpy 如何工作的底层机制,但我认为通过 cudaMalloc 一个指针,在这里说 A,我们实际上分配这个指针指向设备上的某个地址。并且通过 cudaMemcpyGrid_dev->cdata[i]到 A 如上面修改的代码中,我们重新分配指针 A 以指向数组。那我们在cudaMalloced时不就丢失了A指向的上一个地址的轨迹吗?这会导致内存泄漏还是什么?如果是,我应该如何正确解决这种情况?谢谢!

作为参考,我将发生此错误的完整函数的代码放在下面。

非常感谢!

__global__ void Print(grid *, int);
__global__ void Printcell(grid *, int);
void CopyDataToHost(param_t p, grid * CurrentGrid, grid * Grid_dev){

    cudaMemcpy(CurrentGrid, Grid_dev, sizeof(grid), cudaMemcpyDeviceToHost);
#if DEBUG_DEV
    cudaCheckErrors("cudaMemcpy1 error");
#endif
    printf("\nBefore copy cell data\n");
    Print<<<1,1>>>(Grid_dev, 0);            //Print out some Grid_dev information for 
    cudaDeviceSynchronize();                //debug 
    int NumberOfBaryonFields = CurrentGrid->ReturnNumberOfBaryonFields();
    int size = CurrentGrid->ReturnSize();
    int vsize = CurrentGrid->ReturnVSize();
    CurrentGrid->FieldType = NULL;
    CurrentGrid->FieldType = new int[NumberOfBaryonFields];
    printf("CurrentGrid size is %d\n", size);
    for( int i = 0; i < p.NumberOfFields; i++){
        CurrentGrid->cdata[i] = NULL;
        CurrentGrid->vdata[i] = NULL;
        CurrentGrid->cdata[i] = new float[size];
        CurrentGrid->vdata[i] = new float[vsize];

        Printcell<<<1,1>>>(Grid_dev, i);//Print out element value of Grid_dev->cdata[i]
        cudaDeviceSynchronize();        

        cudaMemcpy(CurrentGrid->cdata[i], Grid_dev->cdata[i], size*sizeof(float),\
                cudaMemcpyDeviceToHost);               //where error occurs
#if DEBUG_DEV
        cudaCheckErrors("cudaMemcpy2 error");
#endif
        printf("\nAfter copy cell data\n");
        Print<<<1,1>>>(Grid_dev, i);
        cudaDeviceSynchronize();
        cudaMemcpy(CurrentGrid->vdata[i], Grid_dev->vdata[i], vsize*sizeof(float),\
                cudaMemcpyDeviceToHost);
#if DEBUG_DEV
        cudaCheckErrors("cudaMemcpy3 error");
#endif
    }
    cudaMemcpy(CurrentGrid->FieldType, Grid_dev->FieldType,\
            NumberOfBaryonFields*sizeof(int), cudaMemcpyDeviceToHost);
#if DEBUG_DEV
    cudaCheckErrors("cudaMemcpy4 error");
#endif
}

编辑:这是来自 valgrind 的信息,我试图从中找出内存泄漏发生的位置。

==19340== Warning: set address range perms: large range [0x800000000, 0xd00000000) (noaccess)
==19340== Warning: set address range perms: large range [0x200000000, 0x400000000) (noaccess)
==19340== Invalid read of size 8
==19340==    at 0x402C79: CopyDataToHost(param_t, grid*, grid*) (CheckDevice.cu:48)
==19340==    by 0x403646: CheckDevice(param_t, grid*, grid*) (CheckDevice.cu:186)
==19340==    by 0x40A6CD: main (Transport.cu:81)
==19340==  Address 0x2003000c0 is not stack'd, malloc'd or (recently) free'd
==19340== 
==19340== 
==19340== Process terminating with default action of signal 11 (SIGSEGV)
==19340==  Bad permissions for mapped region at address 0x2003000C0
==19340==    at 0x402C79: CopyDataToHost(param_t, grid*, grid*) (CheckDevice.cu:48)
==19340==    by 0x403646: CheckDevice(param_t, grid*, grid*) (CheckDevice.cu:186)
==19340==    by 0x40A6CD: main (Transport.cu:81)
==19340== 
==19340== HEAP SUMMARY:
==19340==     in use at exit: 2,611,365 bytes in 5,017 blocks
==19340==   total heap usage: 5,879 allocs, 862 frees, 4,332,278 bytes allocated
==19340== 
==19340== LEAK SUMMARY:
==19340==    definitely lost: 0 bytes in 0 blocks
==19340==    indirectly lost: 0 bytes in 0 blocks
==19340==      possibly lost: 37,416 bytes in 274 blocks
==19340==    still reachable: 2,573,949 bytes in 4,743 blocks
==19340==         suppressed: 0 bytes in 0 blocks
==19340== Rerun with --leak-check=full to see details of leaked memory
==19340== 
==19340== For counts of detected and suppressed errors, rerun with: -v
==19340== ERROR SUMMARY: 1 errors from 1 contexts (suppressed: 2 from 2)
4

1 回答 1

20

我相信我知道问题出在哪里,但要确认它,查看您用于在设备上设置类的代码会很有用Grid_dev

当要在设备上使用一个类或其他数据结构时,并且该类中有指针,这些指针指向内存中的其他对象或缓冲区(可能在设备内存中,对于将在设备上使用的类),然后使这个顶级类在设备上可用的过程变得更加复杂。

假设我有这样的课程:

class myclass{
  int myval;
  int *myptr;
  }

我可以在主机上实例化上面的类,然后malloc一个数组int并将该指针分配给myptr,一切都会好起来的。要使此类仅在设备上可用且仅在设备上可用,过程可能相似。我可以:

  1. cudaMalloc 指向将保存的设备内存的指针myclass
  2. myclass(可选)使用 cudaMemcpy 将主机上的实例化对象从步骤 1 复制到设备指针
  3. 在设备上,使用mallocnew分配设备存储空间myptr

如果我不想访问myptr在主机上分配的存储,上述顺序很好。但是,如果我确实希望主机可以看到该存储,我需要一个不同的顺序:

  1. cudaMalloc 指向将保存的设备内存的指针myclass,我们称之为mydevobj
  2. (可选)使用 cudaMemcpy将主机上的实例化对象从步骤 1 复制myclass到设备指针mydevobj
  3. 在宿主机上创建一个单独的int指针,我们称之为myhostptr
  4. 设备上的cudaMallocint存储用于myhostptr
  5. cudaMemcpy从主机到设备指针的指针值myhostptr&(mydevobj->myptr)

之后,您可以cudaMemcpy将嵌入指针指向的数据指向myptr分配的区域(通过cudaMallocmyhostptr

请注意,在第 5 步中,由于我正在获取此指针位置的地址,因此此 cudaMemcpy 操作只需要mydevobj主机上的指针,这在 cudaMemcpy 操作中有效(仅)。

然后将正确设置设备指针的值myint以执行您尝试执行的操作。如果您想将 cudaMemcpy 数据传入和传出主机,请在任何 cudaMemcpy 调用中myint使用指针,而不是. 如果我们尝试使用,则需要取消引用,然后使用它来检索存储在 中的指针,然后将该指针用作到/从位置的副本。这在主机代码中是不可接受的。如果你尝试这样做,你会得到一个段错误。(请注意,通过类比,我的就像你的,我的就像你的)myhostptr mydevobj->myptrmydevobj->myptrmydevobjmyptrmydevobjGrid_devmyptrcdata

总的来说,这是一个在你第一次遇到它时需要仔细考虑的概念,所以像这样的问题在 SO 上出现了一些频率。您可能想研究其中一些问题以查看代码示例(因为您尚未提供设置的代码Grid_dev):

  1. 示例 1
  2. 示例 2
  3. 示例 3
于 2013-03-15T15:00:28.337 回答