我是通过Tim Matterson 的讲义学习 OpenMP 的,他举了一个虚假共享的例子,如下所示。代码很简单,用于从 4.0/(1+x*x) 的数值积分计算 pi,x 范围为 0 到 1。代码使用向量来包含 4.0/(1+x*x) 的值对于从 0 到 1 的每个 x,然后对最后的向量求和:
#include <omp.h>
static long num_steps = 100000;
double step;
#define NUM_THREADS 2
void main()
{
int i, nthreads; double pi, sum[NUM_THREADS];
step = 1.0/(double)num_steps;
omp_set_num_threads(NUM_THREADS);
#pragma omp parallel
{
int i, id, nthrds;
double x;
id = omp_get_thread_num();
nthrds = omp_get_num_threads();
if (id == 0) nthreads = nthrds;
for (i=id, sum[id]=0.0; i<num_steps; i=i+nthrds){
x = (i+0.5)*step;
sum[id] += 4.0/(1.0+x*x);
}
}
for (i=0; pi=0.0; i<nthreads;i++) pi += sum[i]*step;
}
我对这个示例中的虚假共享有一些疑问:
- 是不是因为写入数组的工作在两个线程(即[thread0, thread1, thread0, thread1, ...])之间间歇性地划分而导致的错误共享?如果我们使用
#pragma omp parallel for
,那么数组将被划分为 [thread0, thread0, thread0, ...., thread1, thread1, thread1, ...],那么我们是否仍然存在错误共享,现在每个地址都被访问线程彼此相距很远? - 如果我有一份工作用于
#pragma omp parallel for
写入与我的输入向量具有 1 对 1 对应关系的输出向量(例如,输入是预测变量矩阵,输出是预测向量),那么我什么时候需要担心虚假分享?