让我们A
成为一个(N,M,M)
矩阵(N
非常大),我想scipy.linalg.expm(A[n,:,:])
为每个n in range(N)
. 我当然可以只使用一个for
循环,但我想知道是否有一些技巧可以以更好的方式做到这一点(比如np.einsum
)。
对于其他操作,例如反转矩阵(反转在评论中解决),我有同样的问题。
让我们A
成为一个(N,M,M)
矩阵(N
非常大),我想scipy.linalg.expm(A[n,:,:])
为每个n in range(N)
. 我当然可以只使用一个for
循环,但我想知道是否有一些技巧可以以更好的方式做到这一点(比如np.einsum
)。
对于其他操作,例如反转矩阵(反转在评论中解决),我有同样的问题。
根据矩阵的大小和结构,您可以做得比循环更好。
假设您的矩阵可以对角化为A = V D V^(-1)
(其中D
特征值在其对角线中并V
包含相应的特征向量作为列),您可以计算矩阵指数为
exp(A) = V exp(D) V^(-1)
其中exp(D)
仅包含其对角线中exp(lambda)
的每个特征值。lambda
如果我们使用指数函数的幂级数定义,这真的很容易证明。如果矩阵A
进一步正常,则矩阵V
是单一的,因此可以通过简单地取其伴随来计算其逆。
好消息是,numpy.linalg.eig
两者numpy.linalg.inv
都可以很好地处理堆叠矩阵:
import numpy as np
import scipy.linalg
A = np.random.rand(1000,10,10)
def loopy_expm(A):
expmA = np.zeros_like(A)
for n in range(A.shape[0]):
expmA[n,...] = scipy.linalg.expm(A[n,...])
return expmA
def eigy_expm(A):
vals,vects = np.linalg.eig(A)
return np.einsum('...ik, ...k, ...kj -> ...ij',
vects,np.exp(vals),np.linalg.inv(vects))
请注意,在对 的调用中指定操作顺序时可能有一些优化空间einsum
,但我没有对此进行调查。
测试上面的随机数组:
In [59]: np.allclose(loopy_expm(A),eigy_expm(A))
Out[59]: True
In [60]: %timeit loopy_expm(A)
824 ms ± 55.7 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)
In [61]: %timeit eigy_expm(A)
138 ms ± 992 µs per loop (mean ± std. dev. of 7 runs, 10 loops each)
这已经很好了。如果你足够幸运,你的矩阵都是正常的(比如说,因为它们是真正对称的):
A = np.random.rand(1000,10,10)
A = (A + A.transpose(0,2,1))/2
def eigy_expm_normal(A):
vals,vects = np.linalg.eig(A)
return np.einsum('...ik, ...k, ...jk -> ...ij',
vects,np.exp(vals),vects.conj())
注意输入矩阵的对称定义和 的模式内的转置einsum
。结果:
In [80]: np.allclose(loopy_expm(A),eigy_expm_normal(A))
Out[80]: True
In [79]: %timeit loopy_expm(A)
878 ms ± 89.7 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)
In [80]: %timeit eigy_expm_normal(A)
55.8 ms ± 868 µs per loop (mean ± std. dev. of 7 runs, 10 loops each)
这是上述示例形状的 15 倍加速。
应该注意的是,scipy.linalg.eigm
根据文档使用 Padé 近似。这可能意味着如果您的矩阵是病态的,则特征值分解可能会产生与 不同的结果scipy.linalg.eigm
。我不熟悉此功能的工作原理,但我希望它对病理输入更安全。