7

我刚开始玩 Boost.Compute,想看看它能给我们带来多大的速度,我写了一个简单的程序:

#include <iostream>
#include <vector>
#include <algorithm>
#include <boost/foreach.hpp>
#include <boost/compute/core.hpp>
#include <boost/compute/platform.hpp>
#include <boost/compute/algorithm.hpp>
#include <boost/compute/container/vector.hpp>
#include <boost/compute/functional/math.hpp>
#include <boost/compute/types/builtin.hpp>
#include <boost/compute/function.hpp>
#include <boost/chrono/include.hpp>

namespace compute = boost::compute;

int main()
{
    // generate random data on the host
    std::vector<float> host_vector(16000);
    std::generate(host_vector.begin(), host_vector.end(), rand);

    BOOST_FOREACH (auto const& platform, compute::system::platforms())
    {
        std::cout << "====================" << platform.name() << "====================\n";
        BOOST_FOREACH (auto const& device, platform.devices())
        {
            std::cout << "device: " << device.name() << std::endl;
            compute::context context(device);
            compute::command_queue queue(context, device);
            compute::vector<float> device_vector(host_vector.size(), context);

            // copy data from the host to the device
            compute::copy(
                host_vector.begin(), host_vector.end(), device_vector.begin(), queue
            );

            auto start = boost::chrono::high_resolution_clock::now();
            compute::transform(device_vector.begin(),
                       device_vector.end(),
                       device_vector.begin(),
                       compute::sqrt<float>(), queue);

            auto ans = compute::accumulate(device_vector.begin(), device_vector.end(), 0, queue);
            auto duration = boost::chrono::duration_cast<boost::chrono::milliseconds>(boost::chrono::high_resolution_clock::now() - start);
            std::cout << "ans: " << ans << std::endl;
            std::cout << "time: " << duration.count() << " ms" << std::endl;
            std::cout << "-------------------\n";
        }
    }
    std::cout << "====================plain====================\n";
    auto start = boost::chrono::high_resolution_clock::now();
    std::transform(host_vector.begin(),
                host_vector.end(),
                host_vector.begin(),
                [](float v){ return std::sqrt(v); });

    auto ans = std::accumulate(host_vector.begin(), host_vector.end(), 0);
    auto duration = boost::chrono::duration_cast<boost::chrono::milliseconds>(boost::chrono::high_resolution_clock::now() - start);
    std::cout << "ans: " << ans << std::endl;
    std::cout << "time: " << duration.count() << " ms" << std::endl;

    return 0;
}

这是我机器上的示例输出(win7 64 位):

====================Intel(R) OpenCL====================
device: Intel(R) Core(TM) i7-4770 CPU @ 3.40GHz
ans: 1931421
time: 64 ms
-------------------
device: Intel(R) HD Graphics 4600
ans: 1931421
time: 64 ms
-------------------
====================NVIDIA CUDA====================
device: Quadro K600
ans: 1931421
time: 4 ms
-------------------
====================plain====================
ans: 1931421
time: 0 ms

我的问题是:为什么普通(非opencl)版本更快?

4

3 回答 3

10

正如其他人所说,您的内核中很可能没有足够的计算量,因此值得在 GPU 上运行一组数据(您受到内核编译时间和传输到 GPU 的时间的限制)。

为了获得更好的性能数据,您应该多次运行该算法(并且很可能丢弃第一个算法,因为这会更大,因为它包括编译和存储内核的时间)。

此外,您应该使用融合算法,而不是作为单独的操作运行,该transform()算法使用单个内核执行转换和归约。代码如下所示:accumulate()transform_reduce()

float ans = 0;
compute::transform_reduce(
    device_vector.begin(),
    device_vector.end(),
    &ans,
    compute::sqrt<float>(),
    compute::plus<float>(),
    queue
);
std::cout << "ans: " << ans << std::endl;

您还可以使用 Boost.Compute 编译代码,-DBOOST_COMPUTE_USE_OFFLINE_CACHE这将启用离线内核缓存(这需要与 链接boost_filesystem)。然后,您使用的内核将存储在您的文件系统中,并且仅在您第一次运行应用程序时编译(Linux 上的 NVIDIA 默认情况下已经这样做了)。

于 2014-06-19T00:43:53.097 回答
2

我可以看到造成巨大差异的一个可能原因。比较 CPU 和 GPU 数据流:-

CPU              GPU

                 copy data to GPU

                 set up compute code

calculate sqrt   calculate sqrt

sum              sum

                 copy data from GPU

鉴于此,英特尔芯片似乎在一般计算方面有点垃圾,NVidia 可能正在遭受额外的数据复制和设置 GPU 来进行计算。

您应该尝试相同的程序,但操作要复杂得多 - sqrt 和 sum 太简单了,无法克服使用 GPU 的额外开销。例如,您可以尝试计算 Mandlebrot 点。

在您的示例中,将 lambda 移动到累积中会更快(一次通过内存而不是两次通过)

于 2014-06-18T08:47:51.727 回答
1

你得到了不好的结果,因为你不正确地测量时间。

OpenCL 设备有自己的时间计数器,与主机计数器无关。每个 OpenCL 任务都有 4 个状态,可以查询其计时器:(来自Khronos 网站)

  1. CL_PROFILING_COMMAND_QUEUED, 当事件标识的命令被主机排入命令队列时
  2. CL_PROFILING_COMMAND_SUBMIT,当由已入队的事件标识的命令由主机提交到与命令队列关联的设备时。
  3. CL_PROFILING_COMMAND_START,当事件标识的命令开始在设备上执行时。
  4. CL_PROFILING_COMMAND_END,当事件标识的命令在设备上完成执行时。

考虑到,计时器是Device-side。因此,要测量内核和命令队列的性能,您可以查询这些计时器。在您的情况下,需要 2 个最后一个计时器。

在您的示例代码中,您正在测量主机时间,其中包括数据传输时间(如Skizz所说)以及浪费在命令队列维护上的所有时间。

因此,要了解实际的内核性能,您需要将 cl_event 传递给您的内核(不知道如何在 boost::compute 中执行此操作)并查询该事件以获取性能计数器,或者使您的内核非常庞大和复杂以隐藏所有开销。

于 2014-06-18T15:21:52.150 回答