1

在以下 C 代码中,我在嵌套循环中使用 OpenMP。由于发生竞争条件,我想在最后执行原子操作:

double mysumallatomic() {

  double S2 = 0.;
  #pragma omp parallel for shared(S2)
  for(int a=0; a<128; a++){
    for(int b=0; b<128;b++){
      double myterm = (double)a*b;
      #pragma omp atomic
      S2 += myterm;
    }
  }
  return S2;
}

问题是这#pragma omp atomic对程序行为没有影响,即使我删除它,也没有任何反应。即使我将其更改为#pragma oh_my_god,我也不会出错!

我想知道这里出了什么问题,是否可以告诉编译器在检查 omp pragma 时要更严格,或者为什么我在进行最后一次更改时没有出错

PS:对于编译我使用:

gcc-4.2 -fopenmp main.c functions.c -o main_elec_gcc.exe

PS2:新代码给了我同样的问题并且基于gillespie的想法:

#include <stdio.h>
#include <string.h>
#include <stdlib.h>
#include <omp.h>
#include <math.h>

#define NRACK 64
#define NSTARS 1024

double mysumallatomic_serial(float rocks[NRACK][3], float moon[NSTARS][3],
                             float qr[NRACK],float ql[NSTARS]) {
  int j,i;
  float temp_div=0.,temp_sqrt=0.;
  float difx,dify,difz;
  float mod2x, mod2y, mod2z;
  double S2 = 0.;

  for(j=0; j<NRACK; j++){
    for(i=0; i<NSTARS;i++){     
      difx=rocks[j][0]-moon[i][0];
      dify=rocks[j][1]-moon[i][1];
      difz=rocks[j][2]-moon[i][2];
      mod2x=difx*difx;
      mod2y=dify*dify;
      mod2z=difz*difz;
      temp_sqrt=sqrt(mod2x+mod2y+mod2z);
      temp_div=1/temp_sqrt;
      S2 += ql[i]*temp_div*qr[j];       
    }
  }
  return S2;
}

double mysumallatomic(float rocks[NRACK][3], float moon[NSTARS][3], 
                      float qr[NRACK],float ql[NSTARS]) {
  float temp_div=0.,temp_sqrt=0.;
  float difx,dify,difz;
  float mod2x, mod2y, mod2z;
  double S2 = 0.;

  #pragma omp parallel for shared(S2)
  for(int j=0; j<NRACK; j++){
    for(int i=0; i<NSTARS;i++){
      difx=rocks[j][0]-moon[i][0];
      dify=rocks[j][1]-moon[i][1];
      difz=rocks[j][2]-moon[i][2];
      mod2x=difx*difx;
      mod2y=dify*dify;
      mod2z=difz*difz;
      temp_sqrt=sqrt(mod2x+mod2y+mod2z);
      temp_div=1/temp_sqrt;
      float myterm=ql[i]*temp_div*qr[j];    
      #pragma omp atomic
      S2 += myterm;
    }
  }
  return S2;
}
int main(int argc, char *argv[]) {
  float rocks[NRACK][3], moon[NSTARS][3];
  float qr[NRACK], ql[NSTARS];
  int i,j;

  for(j=0;j<NRACK;j++){
    rocks[j][0]=j;
    rocks[j][1]=j+1;
    rocks[j][2]=j+2;
    qr[j] = j*1e-4+1e-3;
    //qr[j] = 1;
  }

  for(i=0;i<NSTARS;i++){
    moon[i][0]=12000+i;
    moon[i][1]=12000+i+1;
    moon[i][2]=12000+i+2;
    ql[i] = i*1e-3 +1e-2 ;
    //ql[i] = 1 ;
  }
  printf(" serial: %f\n", mysumallatomic_serial(rocks,moon,qr,ql));
  printf(" openmp: %f\n", mysumallatomic(rocks,moon,qr,ql));
  return(0);
}
4

4 回答 4

3
  1. 使用标志-Wall突出显示编译错误。例如,当我拼写错误时,atomic我会收到以下警告。

    main.c:15: warning: ignoring #pragma omp atomic1

  2. 我相信你知道,但以防万一,你的例子应该用reduction

  3. 当您使用 omp parallel 时,默认情况下是所有变量都共享。这不是你想要的。例如,每个线程都会有不同的值difx。相反,您的循环应该是:

    #pragma omp parallel for default(none),\
    private(difx, dify, difz, mod2x, mod2y, mod2z, temp_sqrt, temp_div, i, j),\
    shared(rocks, moon, ql, qr), reduction(+:S2)
    for(j=0; j<NRACK; j++){
      for(i=0; i<NSTARS;i++){
        difx=rocks[j][0]-moon[i][0];
        dify=rocks[j][1]-moon[i][1];
        difz=rocks[j][2]-moon[i][2];
        mod2x=difx*difx;
        mod2y=dify*dify;
        mod2z=difz*difz;
        temp_sqrt=sqrt(mod2x+mod2y+mod2z);
        temp_div=1/temp_sqrt;
        S2 += ql[i]*temp_div*qr[j];  
      }
    }
    
于 2011-01-25T13:25:33.013 回答
1

我知道这是一个旧帖子,但我认为问题在于 gcc 的参数顺序,-fopenmp 应该在编译行的末尾。

于 2017-01-05T04:26:07.060 回答
0

首先,根据实现,减少可能比使用原子更好。我会尝试两者并确定时间。

其次,如果你离开原子,你可能会也可能不会看到与比赛相关的问题(错误结果)。一切都与时间有关,从一次运行到下一次运行可能会有很大的不同。我见过结果在 150,000 次运行中只有一次错误的情况,而其他情况一直都是错误的。

第三,pragma 背后的想法是,如果它们没有效果,用户不需要知道它们。除此之外,Unix(及其衍生产品)的哲学是除非出现问题,否则它是安静的。话虽如此,许多实现都有某种标志,因此用户可以获得更多信息,因为他们不知道发生了什么。您可以尝试使用 gcc 的 -Wall,至少它应该将 oh_my_god pragma 标记为被忽略。

于 2011-01-25T13:37:59.983 回答
0

你有

#pragma omp parallel for shared(S2)
  for(int a=0; a<128; a++){
   ....

所以唯一的并行化将是 for 循环。

如果你想拥有你必须做的原子或减少

#pragma omp parallel 
{
 #pragma omp for shared(S2)
   for(int a=0; a<128; a++){
     for(int b=0; b<128;b++){
       double myterm = (double)a*b;
       #pragma omp atomic
        S2 += myterm;
     } // end of second for
   } // end of 1st for
} // end of parallel code
return S2;
} // end of function

否则 # 之后的所有内容都会被评论

于 2015-12-30T16:10:11.577 回答