我有以下令人尴尬的并行循环
//#pragma omp parallel for
for(i=0; i<tot; i++)
pointer[i] = val;
为什么取消注释 #pragma 行会导致性能下降?当我使用 openmp 并行化这个 for 循环时,程序运行时间略有增加。既然每个访问都是独立的,那不应该大大提高程序的速度吗?
是否有可能如果这个 for 循环没有针对较大的 tot 值运行,开销会减慢速度?
我有以下令人尴尬的并行循环
//#pragma omp parallel for
for(i=0; i<tot; i++)
pointer[i] = val;
为什么取消注释 #pragma 行会导致性能下降?当我使用 openmp 并行化这个 for 循环时,程序运行时间略有增加。既然每个访问都是独立的,那不应该大大提高程序的速度吗?
是否有可能如果这个 for 循环没有针对较大的 tot 值运行,开销会减慢速度?
在共享内存环境中使用多线程实现性能通常取决于:
我将对上述各点进行简要概述。
您需要检查并行任务的粒度是否足以克服并行化的开销(例如,线程创建和同步)。也许循环的迭代次数和计算pointer[i] = val;
不足以证明创建线程的开销是合理的;然而,值得注意的是,太大的任务粒度也会导致问题,例如负载不平衡。
您必须测试负载平衡(每个线程的工作量)。理想情况下,每个线程应该计算相同数量的工作。在您的代码示例中,这没有问题;
你用的是超线程吗?!你使用的线程比内核多吗?!因为,如果是这样,线程将开始“竞争”资源,这会导致性能下降;
通常,人们希望减少线程之间的同步量。因此,有时使用更细粒度的同步机制甚至数据冗余(以及其他方法)来实现这一点。您的代码没有这个问题。
在尝试并行化您的代码之前,您应该分析它是否受内存限制、CPU 限制等。如果它受内存限制,则可以先改善缓存使用率,然后再处理并行化。对于此任务,强烈建议使用分析器。
为了充分利用底层架构,多线程方法需要解决该架构的约束。例如,在架构中实现高效的多线程方法与在SMP
架构中实现它是不同的NUMA
。由于在后者中,必须考虑内存亲和性。
编辑:@Hristo lliev 的建议
顺便说一句,我建议您阅读英特尔开发多线程应用程序指南。