0

一开始,我有 400,000 张经过归一化的图像(灰度值增加)。之后,我对每张图片进行了 DFT,得到了 400000 个样本的数据,具有 3200 个绝对傅立叶系数。

现在我想做一个 PCA 和 SVD。由于我的数据已经标准化并且所有值都具有相同的单位,我认为我可以使用“原始数据”进行计算。但是,PCA 的特征值和 SVD 的奇异值是不同的。(显示图片/链接)

我究竟做错了什么?PCA 和 SVD 应该如何获取数据?标准化,标准化,原始?

请帮我!谢谢

我的代码:

# samples 400000x3200
# SVD
U,S,VT = svd(samples, full_matrices=False) 

tot_S = sum(S)
var_exp_S = [(i / tot_S) for i in S]
cum_var_exp_S = np.cumsum(var_exp_S)

# PCA
cov_mat = np.cov(samples.T)
eigen_vals, eigen_vecs = np.linalg.eig(cov_mat)
eigen_vals = np.asarray(sorted(eigen_vals,reverse=True))

tot = sum(eigen_vals)
var_exp = [(i / tot) for i in eigen_vals]
cum_var_exp = np.cumsum(var_exp)


num= 3200
plt.figure(figsize=(10,5))
plt.subplot(121)
plt.title('PCA')
plt.step(range(1,num+1),cum_var_exp[:num], where='mid',color='r')
plt.ylabel('share of variance')
plt.xlabel('principal components')
plt.legend()
plt.grid()

plt.subplot(122)
plt.title('SVD')
plt.step(range(1,num+1),cum_var_exp_S[:num], where='mid',color='r')
plt.ylabel('share of variance')
plt.xlabel('principal components')
plt.legend()
plt.grid()
4

3 回答 3

1

PCA 中有一些“标准化”。这是我自己的 PCA 库中的代码:


//normalize to center
centred = center( samples );
//normalize to square matrix
matrix = cov( centred );
//eigenvalue decomposition
vectors = evd( matrix );
//get normalized eigenvectors:
eigenvectors = get_eigenvectors( vectors );
//get eigenvalues:
eigenvalues = get_eigenvalues( vectors );

SVD 和 PCA 之间的关系描述为: M*M 的特征值是 M 的奇异值的平方。

于 2020-04-23T16:12:26.860 回答
0

这是一个例子:

import numpy as np
from scipy.linalg import svd
from sklearn.preprocessing import StandardScaler

X_train = np.asarray([[13.71,1.86,2.36,16.6],[12.22,1.29,1.94,19],
       [13.27,4.28,2.26,20],[13.16,3.57,2.15,21],
       [13.86,1.51,2.67,25]])

#PCA
sc = StandardScaler()
X_train_std = sc.fit_transform(X_train)

cov_mat = np.cov(X_train_std.T)
eigen_vals, eigen_vecs = np.linalg.eigh(cov_mat)
eigen_vals = np.asarray(sorted(eigen_vals, reverse=True))

#SVD
U,eigen_vals_S,V = svd(X_train)
eigen_vals_S2 = (eigen_vals_S**2)

print('\nEigenvalues \n%s' % eigen_vals)
print('\nS \n%s' %eigen_vals_S)
print('\nS**2 \n%s' %eigen_vals_S2)re

输出(特征值和 S**2 不同):

特征值 [2.79331043 1.28393579 0.90313734 0.01961644]

S [55.02775284 3.37434634 2.52347705 0.28664958]

S**2 [3.02805358e+03 1.13862132e+01 6.36793643e+00 8.21679822e-02]

现在结果相同:

#Same eigenvalues
eigen_vals, eigen_vecs = np.linalg.eigh((X_train.T).dot(X_train))
eigen_vals = np.asarray(sorted(eigen_vals, reverse=True))

#SVD
U,eigen_vals_S,V = svd(X_train)
eigen_vals_S2 = (eigen_vals_S**2)

print('\nEigenvalues \n%s' % eigen_vals)
print('\nS \n%s' %eigen_vals_S)
print('\nS**2 \n%s' %eigen_vals_S2)

输出:

特征值 [3.02805358e+03 1.13862132e+01 6.36793643e+00 8.21679822e-02]

S [55.02775284 3.37434634 2.52347705 0.28664958]

S**2 [3.02805358e+03 1.13862132e+01 6.36793643e+00 8.21679822e-02]

这就是我不明白的。标准化和 cov() 的方法是 PCA 的方法。但是正如你所看到的,有不同的结果,这取决于我如何计算特征值......

我有什么不对或为什么会这样?

于 2020-04-23T18:58:04.527 回答
0

这些图像来自数据集(400000x3200):

主成分分析

SVD

于 2020-04-23T20:57:36.080 回答