主要问题是您没有正确索引源数据。
for (int i = r.start; i != r.end; ++i)
{
dst[i] = ( 0.0722 * src[i] )
+ ( 0.7152 * src[i+1] )
+ ( 0.2126 * src[i+2]);
}
让我们想象一下r.start == 0
和r.end == 2
。这段代码相当于:
dst[0] = ( 0.0722 * src[0] ) + ( 0.7152 * src[1] ) + ( 0.2126 * src[2]);
dst[1] = ( 0.0722 * src[1] ) + ( 0.7152 * src[2] ) + ( 0.2126 * src[3]);
请注意,值src
最终会被重用——这当然是不可取的。问题是它src
包含的值是 的 3 倍dst
,因此它的索引应该增长 3 倍快。
for (int i = r.start; i != r.end; ++i)
{
dst[i] = ( 0.0722 * src[i * 3] )
+ ( 0.7152 * src[i * 3 + 1] )
+ ( 0.2126 * src[i * 3 + 2]);
}
这应该使并行化版本正常工作,但是还有更多需要改进的地方。
一个显着的改进(在单线程版本中约为 30%,在并行版本中约为 10%)可以通过使用系数float
来代替double
(例如0.0722f
,代替0.0722
)。这是以某些精度为代价的,但避免了不必要的转换(并且可能更好地矢量化)。
不要使用 C 风格的演员表。在BGR2rec709Parallel((float*)src.data, (float*)dst.data)
你应该使用reinterpret_cast<float>
. 或者更好的是,正如您在第一个版本中使用的那样,利用cv::Mat::ptr
(ie src.ptr<float>()
, dst.ptr<float>()
)。
您使用的方式parallel_for_
并不理想:
int nElements = src.cols * src.rows;
parallel_for_(cv::Range(0, nElements), /* ... */);
您没有指定第三个参数 ( nstripes
)。根据我的观察(OpenCV 3.1.0/MSVS2013 和 3.4.3/MSVC2015),结果是operator()
使用大小为 1 的范围调用。这可能会导致一些相当讨厌的开销,尤其是当大小为 1 的范围对应于单个像素。
nstripes
设置为可以看到显着的改进cv::getNumThreads()
。这将导致每个工作线程的工作被拆分为 1 个范围,范围大小相似。
并行版本不能再处理不连续Mat
的 s(例如,获取更大图像的 ROI 的结果),这是第一个版本所做的。
为了解决这个问题,parallel_for_
应该使用行而不是像素,并且它的上下文应该是对输入和输出Mat
的引用而不是数据指针。
将工作分成等于线程数的条带数量在这里并不重要,因为处理一行已经包含大量工作,但我们仍然可以这样做。
哦,还要提一个。for (int i = r.start; i != r.end; ++i)
--!=
这里是自找麻烦,如果你增加i
超过1。更喜欢在<
这里使用。
最终版本如下所示:
class BGR2rec709ParallelC
: public cv::ParallelLoopBody
{
public:
BGR2rec709ParallelC(cv::Mat const& src, cv::Mat& dst)
: src(src), dst(dst)
{
CV_Assert(src.type() == CV_32FC3);
CV_Assert(dst.type() == CV_32FC1);
CV_Assert(src.size() == dst.size());
}
virtual void operator()(const cv::Range &r) const
{
for (int row(r.start); row < r.end; ++row) {
convert_row(src.ptr<float>(row), dst.ptr<float>(row));
}
}
private:
void convert_row(float const* src_ptr, float * dst_ptr) const
{
for (int i(0); i != src.cols; ++i) {
dst_ptr[i] = (0.0722f * src_ptr[i * 3])
+ (0.7152f * src_ptr[i * 3 + 1])
+ (0.2126f * src_ptr[i * 3 + 2]);
}
}
private:
cv::Mat const& src;
cv::Mat& dst;
};
void get_intensity_v4(cv::Mat const& src, cv::Mat& dst)
{
parallel_for_(cv::Range(0, src.rows)
, BGR2rec709ParallelC(src, dst)
, cv::getNumThreads());
}
完整的测试程序比较各种实现的性能:
#include <opencv2/opencv.hpp>
void get_intensity_base(cv::Mat const& src, cv::Mat& dst)
{
cv::cvtColor(src, dst, cv::COLOR_BGR2GRAY);
}
void get_intensity_v1a(cv::Mat const& src, cv::Mat& dst)
{
int rows = src.rows, cols = src.cols;
for (int row(0); row < rows; ++row) {
float const* src_ptr = src.ptr<float>(row);
float* dst_ptr = dst.ptr<float>(row);
for (int col(0); col < cols; ++col, src_ptr += 3) {
dst_ptr[col] = static_cast<float>((0.0722 * src_ptr[0])
+ (0.7152 * src_ptr[1])
+ (0.2126 * src_ptr[2]));
}
}
}
void get_intensity_v1b(cv::Mat const& src, cv::Mat& dst)
{
int rows = src.rows, cols = src.cols;
for (int row(0); row < rows; ++row) {
float const* src_ptr = src.ptr<float>(row);
float* dst_ptr = dst.ptr<float>(row);
for (int col(0); col < cols; ++col, src_ptr += 3) {
dst_ptr[col] = (0.0722f * src_ptr[0])
+ (0.7152f * src_ptr[1])
+ (0.2126f * src_ptr[2]);
}
}
}
class BGR2rec709ParallelA
: public cv::ParallelLoopBody
{
public:
BGR2rec709ParallelA(float const* src, float* dst) : src(src), dst(dst) {}
virtual void operator()(cv::Range const& r) const
{
for (int i(r.start); i < r.end; ++i) {
dst[i] = static_cast<float>((0.0722 * src[i * 3])
+ (0.7152 * src[i * 3 + 1])
+ (0.2126 * src[i * 3 + 2]));
}
}
private:
float const* src;
float* dst;
};
class BGR2rec709ParallelB
: public cv::ParallelLoopBody
{
public:
BGR2rec709ParallelB(float const* src, float* dst) : src(src), dst(dst) {}
virtual void operator()(cv::Range const& r) const
{
for (int i(r.start); i < r.end; ++i) {
dst[i] = (0.0722f * src[i * 3])
+ (0.7152f * src[i * 3 + 1])
+ (0.2126f * src[i * 3 + 2]);
}
}
private:
float const* src;
float* dst;
};
template <typename LoopBody>
void get_intensity_v2(cv::Mat const& src, cv::Mat& dst)
{
int nElements = src.cols * src.rows;
parallel_for_(cv::Range(0, nElements)
, LoopBody(src.ptr<float>(), dst.ptr<float>()));
}
template <typename LoopBody>
void get_intensity_v3(cv::Mat const& src, cv::Mat& dst)
{
int nElements = src.cols * src.rows;
parallel_for_(cv::Range(0, nElements)
, LoopBody(src.ptr<float>(), dst.ptr<float>())
, cv::getNumThreads());
}
class BGR2rec709ParallelC
: public cv::ParallelLoopBody
{
public:
BGR2rec709ParallelC(cv::Mat const& src, cv::Mat& dst)
: src(src), dst(dst)
{
CV_Assert(src.type() == CV_32FC3);
CV_Assert(dst.type() == CV_32FC1);
CV_Assert(src.size() == dst.size());
}
virtual void operator()(const cv::Range &r) const
{
for (int row(r.start); row < r.end; ++row) {
convert_row(src.ptr<float>(row), dst.ptr<float>(row));
}
}
private:
void convert_row(float const* src_ptr, float * dst_ptr) const
{
for (int i(0); i != src.cols; ++i) {
dst_ptr[i] = (0.0722f * src_ptr[i * 3])
+ (0.7152f * src_ptr[i * 3 + 1])
+ (0.2126f * src_ptr[i * 3 + 2]);
}
}
private:
cv::Mat const& src;
cv::Mat& dst;
};
void get_intensity_v4(cv::Mat const& src, cv::Mat& dst)
{
parallel_for_(cv::Range(0, src.rows)
, BGR2rec709ParallelC(src, dst)
, cv::getNumThreads());
}
cv::Mat test(std::string const& name
, cv::Mat const& input
, void(*fn)(cv::Mat const&, cv::Mat&))
{
cv::Mat output(input.size(), CV_32FC1); // pre-allocate
std::cout << name << "\n";
int64 min_ticks(0x7FFFFFFFFFFFFFFF);
for (int i(0); i < 32; ++i) {
int64 t_start(cv::getTickCount());
fn(input, output);
int64 t_stop(cv::getTickCount());
min_ticks = std::min(min_ticks, t_stop - t_start);
}
std::cout << " >= " << min_ticks << " ticks\n";
return output;
}
cv::Mat3f make_test_data(int rows, int cols)
{
cv::Mat m(rows, cols, CV_16UC3);
cv::randu(m, 0, 0x10000);
cv::Mat3f result;
m.convertTo(result, CV_32FC3, 1.0 / 0xFFFF);
return result;
}
int main()
{
cv::Mat input(make_test_data(4096, 4096));
test("Base", input, get_intensity_base);
cv::Mat out_v1a = test("V1A", input, get_intensity_v1a);
cv::Mat out_v1b = test("V1B", input, get_intensity_v1b);
cv::Mat out_v2a = test("V2A", input, get_intensity_v2<BGR2rec709ParallelA>);
cv::Mat out_v2b = test("V2B", input, get_intensity_v2<BGR2rec709ParallelB>);
cv::Mat out_v3a = test("V3A", input, get_intensity_v3<BGR2rec709ParallelA>);
cv::Mat out_v3b = test("V3B", input, get_intensity_v3<BGR2rec709ParallelB>);
cv::Mat out_v4 = test("V4", input, get_intensity_v4);
std::cout << "Differences V1A vs V2A: " << cv::countNonZero(out_v1a != out_v2a) << "\n";
std::cout << "Differences V1B vs V2B: " << cv::countNonZero(out_v1b != out_v2b) << "\n";
std::cout << "Differences V1B vs V3B: " << cv::countNonZero(out_v1b != out_v3b) << "\n";
std::cout << "Differences V1B vs V4: " << cv::countNonZero(out_v1b != out_v4) << "\n";
return 0;
}
控制台输出(OpenCV 3.1.0/MSVC2013/x64/i7-4930K):
Base
>= 126365 ticks
V1A
>= 500890 ticks
V1B
>= 331197 ticks
V2A
>= 746851 ticks
V2B
>= 704011 ticks
V3A
>= 148181 ticks
V3B
>= 134176 ticks
V4
>= 133750 ticks
Differences V1A vs V2A: 0
Differences V1B vs V2B: 0
Differences V1B vs V3B: 0
Differences V1B vs V4: 0
控制台输出(OpenCV 3.4.3/MSVC2015/x64/i7-4930K):
Base
>= 123620 ticks
V1A
>= 503707 ticks
V1B
>= 331801 ticks
V2A
>= 1768515 ticks
V2B
>= 1710579 ticks
V3A
>= 145451 ticks
V3B
>= 135767 ticks
V4
>= 131438 ticks
Differences V1A vs V2A: 0
Differences V1B vs V2B: 0
Differences V1B vs V3B: 0
Differences V1B vs V4: 0
parallel_for_
注意:请注意这里的细粒度版本差多少!
更新:
正如Nuzhny所建议的,这是一个cv::Mat::forEach
与 lambda 一起使用的实现。
void get_intensity_v5(cv::Mat const& src, cv::Mat& dst)
{
CV_Assert(src.type() == CV_32FC3);
CV_Assert(dst.type() == CV_32FC1);
CV_Assert(src.size() == dst.size());
dst.forEach<float>(
[&](float& pixel, int const* po) -> void
{
cv::Vec3f const& in_pixel(src.at<cv::Vec3f>(po));
pixel = (0.0722f * in_pixel[0])
+ (0.7152f * in_pixel[1])
+ (0.2126f * in_pixel[2]);
}
);
}
附加控制台输出:
V5
>= 123071 ticks
Differences V1B vs V5: 0
在这一点上,老实说,我无法解释为什么它表现得更好——forEach
实现使用parallel_for_
按行分块......