我正在尝试优化一些python代码(以加快一些矩阵运算),我的代码类似于这个(我的真实数据集也类似于'gps'),
import numpy as np
gps = [np.random.rand(50,50) for i in xrange(1000)]
ips = np.zeros( (len(gps),len(gps)), dtype='float32')
for i in xrange(len(gps)):
for j in xrange(0,i+1):
ips[i,j]= f.innerProd(gps[i],gps[j])
ips[j,i]= ips[i,j]
print "Inner product matrix: %3.0f %% done (%d of %d)"% \
(((i+1)**2.)/(len(gps)**2.)*100, i, len(gps))
def innerProd(mat1,mat2):
return float(np.sum(np.dot(np.dot(mat1,mat2),mat1)))
我想了解的是,为什么程序在第一次迭代期间开始快速运行,然后随着进一步迭代而减慢?我知道这个问题可能有点幼稚,但我真的想在尝试其他任何事情之前更清楚地了解正在发生的事情。我已经在 Fortran 中实现了我的函数(在 Fortran 领域内保留任何 for 循环)并使用 f2py 创建一个动态库来从 python 调用函数,这将是 python 中的新代码。
import numpy as np
import myfortranInnProd as fip
gps = [np.random.rand(50,50) for i in xrange(1000)]
ips = np.zeros( (len(gps),len(gps)), dtype='float32')
ips = fip.innerProd(gps)
不幸的是,我只是(令人惊讶地)发现我的 fortran-python 版本比第一个版本慢 1.5 ~ 2 倍(重要的是要提到我在 Fortran 实现中使用了 MATMUL() )。我已经在谷歌上搜索了一段时间,我相信这种“减速”与内存带宽、内存分配或缓存有关,因为数据集很大,但我不太确定背后到底发生了什么以及如何我可以提高性能吗?我已经在小型英特尔原子、2GB ram 和 4 核英特尔至强处理器上运行了代码,8GB(当然还有相应缩放的数据集)并且“减速”行为是相同的。
我只需要了解为什么会发生这种“减速”?如果我在 C 中实现这个函数会有什么好处吗?或尝试实现它以在 GPU 上运行?任何其他想法如何改进它?提前致谢