SYCL 通过“主机”和“设备”来划分执行和数据。“主机”上的数据通常位于 CPU 上,需要传输到“设备”(通常是 GPU)才能被访问以在 SYCL 内核中使用。
SYCL 使用缓冲区和访问器或“统一共享内存”来传输和提供对“设备”端代码(即在 GPU 上运行的代码)的数据的访问。因此,您的指针永远不会发送到设备,因此永远不会被修改。
因此,int * const g_ptr = &g_var;
您应该使用缓冲区或 USM,而不是使用。SYCL Academy中有一些关于缓冲区和 USM 的课程。
例如使用缓冲区和访问器:
int a = 18, b = 24, r = 0;
auto defaultQueue = sycl::queue{};
{
auto bufA = sycl::buffer{&a, sycl::range{1}};
auto bufB = sycl::buffer{&b, sycl::range{1}};
auto bufR = sycl::buffer{&r, sycl::range{1}};
defaultQueue
.submit([&](sycl::handler &cgh) {
auto accA = sycl::accessor{bufA, cgh, sycl::read_only};
auto accB = sycl::accessor{bufB, cgh, sycl::read_only};
auto accR = sycl::accessor{bufR, cgh, sycl::write_only};
cgh.single_task<scalar_add>([=] { accR[0] = accA[0] + accB[0]; });
})
.wait();
}
并使用 USM:
auto usmQueue = sycl::queue{usm_selector{}, asyncHandler};
usmQueue.memcpy(devicePtrA, a, sizeof(float) * dataSize).wait();
usmQueue.memcpy(devicePtrB, b, sizeof(float) * dataSize).wait();
usmQueue
.parallel_for<vector_add>(sycl::range{dataSize},
[=](sycl::id<1> idx) {
auto globalId = idx[0];
devicePtrR[globalId] =
devicePtrA[globalId] +
devicePtrB[globalId];
})
.wait();
usmQueue.memcpy(r, devicePtrR, sizeof(float) * dataSize).wait();
sycl::free(devicePtrA, usmQueue);
sycl::free(devicePtrB, usmQueue);
sycl::free(devicePtrR, usmQueue);
usmQueue.throw_asynchronous();