1

我试图使用 sklearn 来执行具有 28*28 = 784 dims 数据的内核 PCA。起初我使用 PCA 来减少维度,我选择减少到 k 维,其中 k 可以解释 95% 的方差。PCA 给了我 k = 174。后来我尝试了使用 3 次多项式内核的内核 PCA,类似地,使用解释方差方法我得到了 k = 1993。由于 1993 > 784,内核 PCA 实际上增加了维数,这与我的意图。

另外,我使用了 5000 个数据进行训练,而 Kernel PCA 给了我 5000 个特征向量,我从中选择了 k = 1993。为什么内核 PCA 给了我 5000 个特征向量?为什么与 PCA 相比,内核 PCA 增加了维度?

4

0 回答 0