1

一位教练在视频中做到了这一点。他只是快速解释说他这样做是因为 R 的默认性质。但是,我以前从未见过这个应用程序。这是正确的,他为什么这样做?

pca <- prcomp(data, scale=TRUE)
pca$rotation <- -pca$rotation
pca$x        <- -pca$x
4

2 回答 2

0

PCA是一种unsupervised-learning算法,它不识别有关组的信息。

您应该使用旋转矩阵来尝试更好地理解结果。

这是为什么?

因为您假设潜在因素是正交的。解是一组具有唯一方差的因子。最大似然解是因子的正交变换。旋转矩阵以最大限度地简化解释是有意义的。

如果你想深入讨论因子分析,我建议你访问这个。我上面写的链接是FactoMiner包的官方页面。 在这里,您可以找到有关软件包解释的视频(软件包的作者所做的)FactoMiner以及有关因子分析的所有功能等。

于 2020-05-09T12:24:10.977 回答
0

这有点奇怪,与 R 的性质等无关。它可能与数据有关,以及 pca 的用途。由于数据是按比例缩放的,因此通过添加负数,您只需翻转主成分分数:

data = iris[,1:4]
pca <- prcomp(data, scale=TRUE)

par(mfrow=c(1,2))
plot(pca$x[,1:2],col=factor(iris$Species),main="original")
plot(-pca$x[,1:2],col=factor(iris$Species),main="negative")

在此处输入图像描述

如果您将其用于回归等。这并不重要。

于 2020-05-09T10:09:43.767 回答