我正在尝试将我以前用 python 编写的一些代码转移到 C++ 中,我目前正在测试 xtensor 以查看它是否可以比 numpy 更快地完成我需要的操作。
我的一个函数采用一个方阵 d 和一个标量 alpha,并执行元素运算alpha/(alpha+d)
。背景:此函数用于测试哪个值alpha
是“最佳”,因此它处于一个循环中,d
始终相同,但alpha
变化。
以下所有时间尺度都是运行该函数的 100 个实例的平均值。
在 numpy 中,执行此操作大约需要 0.27 秒,代码如下:
def kfun(d,alpha):
k = alpha /(d+alpha)
return k
但是 xtensor 大约需要 0.36 秒,代码如下所示:
xt::xtensor<double,2> xk(xt::xtensor<double,2> d, double alpha){
return alpha/(alpha+d);
}
我也尝试过使用以下版本,std::vector
但这是我不想长期使用的东西,即使它只花了 0.22 秒。
std::vector<std::vector<double>> kloops(std::vector<std::vector<double>> d, double alpha, int d_size){
for (int i = 0; i<d_size; i++){
for (int j = 0; j<d_size; j++){
d[i][j] = alpha/(alpha + d[i][j]);
}
}
return d;
}
我注意到operator/
in xtensor 使用“延迟广播”,有没有办法让它立即生效?
编辑:
在 Python 中,函数调用如下,并使用“time”包进行计时
t0 = time.time()
for i in range(100):
kk = k(dsquared,alpha_squared)
print(time.time()-t0)
在 C++ 中,我调用函数如下,并使用 chronos 计时:
//d is saved as a 1D npy file, an artefact from old code
auto sd2 = xt::load_npy<double>("/path/to/d.npy");
shape = {7084, 7084};
xt::xtensor<double, 2> xd2(shape);
for (int i = 0; i<7084;i++){
for (int j=0; j<7084;j++){
xd2(i,j) = (sd2(i*7084+j));
}
}
auto start = std::chrono::steady_clock::now();
for (int i = 0;i<10;i++){
matrix<double> kk = kfun(xd2,4000*4000,7084);
}
auto end = std::chrono::steady_clock::now();
std::chrono::duration<double> elapsed_seconds = end-start;
std::cout << "k takes: " << elapsed_seconds.count() << "\n";
如果您希望运行此代码,我建议使用xd2
对称的 7084x7084 随机矩阵,对角线为零。
函数的输出,一个名为 的矩阵k
,然后继续用于其他函数,但我仍然需要d
保持不变,因为它稍后会被重用。
结束编辑
要运行我的 C++ 代码,我在终端中使用以下行:
cd "/path/to/src/" && g++ -mavx2 -ffast-math -DXTENSOR_USE_XSIMD -O3 ccode.cpp -o ccode -I/path/to/xtensorinclude && "/path/to/src/"ccode
提前致谢!