3

scipy.weave用于 python 脚本中的性能关键部分。如果可能,我会使用 OpenMP 并行化这些代码。在某些情况下,我会遇到瓶颈,这可能是由于错误共享造成的。我如何分析这些内联代码,即对 Linux 平台上的合适工具有什么建议?

请参阅下面的错误向量加法实现,它容易出现错误共享。

from scipy.weave import inline
import numpy as np
import time

N = 1000
a = np.random.rand(N)
b = np.random.rand(N)
c = np.random.rand(N)

cpus = 4
weave_options = {'headers'           : ['<omp.h>'],
                 'extra_compile_args': ['-fopenmp -O3'],
                 'extra_link_args'   : ['-lgomp'],
                 'compiler'          : 'gcc'}

code = \
r"""
omp_set_num_threads(cpus);
#pragma omp parallel
{
   #pragma omp for schedule(dynamic)
      for ( int i=0; i<N; i++ ){
         c[i] = a[i]+b[i];
      }
}
"""

now = time.time()
inline(code,['a','b','c','N','cpus'],**weave_options)
print "TOOK {0:.4f}".format(time.time()-now)
print "SUCCESS" if np.all(np.equal(a,a)) else "FAIL"

编辑:

可以使用

valgrind --tool=callgrind --simulate-cache=yes python ***.py

并且kcachegrind ./callgrind.out.****至少得到一个轻微的印象。但是对于这些类型的包装代码,结果往往会变得混乱。

4

0 回答 0