4

总之,我编写了一个非常简单的 OpenCL 内核,它使用简单的平均将 RGB 图像转换为灰度。

一些背景:

  1. 图像存储在映射内存中,作为 24 位非填充内存块
  2. 输出数组存储在固定内存中(映射为clEnqueueMapBuffer),大小为 8 bpp
  3. 设备上分配了两个缓冲区(clCreateBuffer),一个是专门读取的(我们clWriteBuffer在内核启动之前进入),另一个是专门写入(我们clReadBuffer在内核完成之后)

我在 1280x960 图像上运行它。该算法的串行版本平均为 60 毫秒,OpenCL 内核平均为 200 毫秒!!!我做错了什么,但我不知道如何进行,优化什么。(在没有内核调用的情况下计时我的读/写,算法在 15 毫秒内运行)

我正在附加内核设置(大小和参数)以及内核


编辑:所以我写了一个更笨的内核,它内部没有全局内存访问,它只有 150 毫秒......这仍然非常慢。我想也许我搞砸了全局内存读取,它们必须是 4 字节对齐的还是什么?没有...

编辑2:从我的内核中删除所有参数给了我显着的加速......我很困惑我认为既然我是clEnqueueWriteBuffer内核应该不从主机->设备和设备->主机进行内存传输... .

编辑3:想通了,但我仍然不明白为什么。如果有人能解释一下,我很乐意为他们提供正确的答案。问题是按值传递自定义结构。看起来我需要为他们分配一个全局内存位置并传递他们cl_mem的 s


内核调用:

//Copy input to device
result = clEnqueueWriteBuffer(handles->queue, d_input_data, CL_TRUE, 0, h_input.widthStep*h_input.height, (void *)input->imageData, 0, 0, 0);
if(check_result(result, "opencl_rgb_to_gray", "Failed to write to input buffer on device!")) return 0;

//Set kernel arguments
result = clSetKernelArg(handles->current_kernel, 0, sizeof(OpenCLImage), (void *)&h_input);
if(check_result(result, "opencl_rgb_to_gray", "Failed to set input struct.")) return 0;
result = clSetKernelArg(handles->current_kernel, 1, sizeof(cl_mem), (void *)&d_input_data);
if(check_result(result, "opencl_rgb_to_gray", "Failed to set input data.")) return 0;
result = clSetKernelArg(handles->current_kernel, 2, sizeof(OpenCLImage), (void *)&h_output);
if(check_result(result, "opencl_rgb_to_gray", "Failed to set output struct.")) return 0;
result = clSetKernelArg(handles->current_kernel, 3, sizeof(cl_mem), (void *)&d_output_data);
if(check_result(result, "opencl_rgb_to_gray", "Failed to set output data.")) return 0;

//Determine run parameters
global_work_size[0] = input->width;//(unsigned int)((input->width / (float)local_work_size[0]) + 0.5);
global_work_size[1] = input->height;//(unsigned int)((input->height/ (float)local_work_size[1]) + 0.5);

printf("Global Work Group Size: %d %d\n", global_work_size[0], global_work_size[1]);

//Call kernel
result = clEnqueueNDRangeKernel(handles->queue, handles->current_kernel, 2, 0, global_work_size, local_work_size, 0, 0, 0);
if(check_result(result, "opencl_rgb_to_gray", "Failed to run kernel!")) return 0;

result = clFinish(handles->queue);
if(check_result(result, "opencl_rgb_to_gray", "Failed to finish!")) return 0;

//Copy output
result = clEnqueueReadBuffer(handles->queue, d_output_data, CL_TRUE, 0, h_output.widthStep*h_output.height, (void *)output->imageData, 0, 0, 0);
if(check_result(result, "opencl_rgb_to_gray", "Failed to write to output buffer on device!")) return 0;

核心:

typedef struct OpenCLImage_t
{
    int width;
    int widthStep;
    int height;
    int channels;
} OpenCLImage;

__kernel void opencl_rgb_kernel(OpenCLImage input, __global unsigned char*  input_data, OpenCLImage output, __global unsigned char * output_data)
{
    int pixel_x = get_global_id(0);
    int pixel_y = get_global_id(1);
    unsigned char * cur_in_pixel, *cur_out_pixel;
    float avg = 0;

    cur_in_pixel = (unsigned char *)(input_data + pixel_y*input.widthStep + pixel_x * input.channels);
    cur_out_pixel = (unsigned char *)(output_data + pixel_y*output.widthStep + pixel_x * output.channels);

    avg += cur_in_pixel[0];
    avg += cur_in_pixel[1];
    avg+= cur_in_pixel[2];
    avg /=3.0f;

    if(avg > 255.0)
        avg = 255.0;
    else if(avg < 0)
        avg = 0;

    *cur_out_pixel = avg;
}
4

2 回答 2

5

将值复制到将要创建的所有线程的开销可能是时间的可能原因;至于全局内存,在另一种情况下引用就足够了。唯一能够准确回答的 SDK 实施者.. :)

于 2013-04-04T06:04:23.137 回答
0

您可能想尝试使用 [64, 1, 1] 之类的 local_work_size 来合并您的内存调用。(注意 64 是 1280 的除数)。

如前所述,您必须使用分析器才能获取更多信息。你用的是nvidia卡吗?然后下载 CUDA 4(不是 5),因为它包含一个 openCL 分析器。

你的表现一定远非最佳。更改局部工作大小,全局工作大小,尝试每个胎面处理两个或四个像素。你能改变像素在治疗之前的存储方式吗?然后打破树数组的结构,以便更有效地合并内存访问。

Tou 可以通过 GPU 工作隐藏您的内存传输:使用您附近的分析器会更容易做到。

于 2013-04-06T10:11:57.347 回答