问题标签 [principal-components]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
machine-learning - Scikit-learn PCA .fit_transform 形状不一致(n_samples << m_attributes)
我正在为我的 PCA 使用不同的形状sklearn
。 为什么我的转换没有像文档说的那样产生一个相同维度的数组?
使用 iris 数据集检查这一点,这是(150, 4)
我制作 4 台 PC 的地方:
但是当我在我的实际数据集上使用(76, 1989)
与 in相同的方法时76 samples
,1989 attributes/dimensions
我得到一个(76, 76)
数组而不是(76, 1989)
normalize
只是我制作的一个包装器,它mean
从每个维度中减去 。
machine-learning - 一条线上 3 个点的第一个主成分
我对第一个主要方向有点困惑。假设我在二维欧几里得空间中有三个点:(1,1)、(2,2) 和 (3,3),我想计算第一个主成分。
首先,我看到中心是 (2,2),所以我将所有点移动到原点。现在 (2,2) 就像 (0,0) 并且 (1,1) 是 (-1,-1) 而 (3,3) 是 (1,1)。这是均值偏移。现在,我知道第一个主成分是 matlab 的 transpose((sqrt(2)/2, sqrt(2)/2)) 。但是,它是如何计算的呢?这是什么意思?
你计算协方差矩阵然后找到特征值然后找到特征向量。这个特征向量是方向?那你正常化?
因此,我们在 (-1,-1)、(0,0) 和 (1,1) 处得到均值偏移后的点。我们现在计算协方差矩阵
c(x,x) c(x,y)
c(y,x) c(y,y)
这是 [0 1; 0 1] 然后我们查看最大的特征值 1 并计算特征向量 [1;1]。然后我们归一化除以 sqrt(1^2 + 1^2)?
r - 如何使用princomp导致Regression using R
我正在做主成分分析,以减少我的回归模型的变量数量,数据集数量少且自变量数量多(大约 40 个自变量)。我正在使用该函数princomp
生成主成分,因为我在自变量之间具有相关性。但我不知道如何根据 PCA 的数量使用 princomp 输出。我有兴趣使用主成分的子集预言
你能帮我么?
提前致谢