问题标签 [dimensionality-reduction]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python-2.7 - 使用 scikit-learn 流形将 RGB 转为灰色
我正在尝试使用流形学习方法减小尺寸以将 RGB 图像变为灰色。
我已将图像转换为 numpy 数组(image_array)
检查 image_array
(273280, 3)
尝试的时候,
我明白了
ValueError:解包的值太多。
有没有办法解决这个问题?
dimensionality-reduction - Isomap“非线性降维”点数
我有一个问题,它是关于“Isomap”非线性降维的,在正常情况下,当我引入 100 * 100 的矩阵距离并应用 Isomap [ http://isomap.stanford.edu/][1]我得到100 点的坐标,在其他情况下,我不明白为什么,使用 150 * 150 的矩阵我得到 35 或 50 点?
python - scikit-learn 因子分析的旋转参数
因子分析的标志之一是它允许非正交潜在变量。
例如,在 R 中,此功能可通过rotation
参数 of访问factanal
。有没有这样的规定sklearn.decomposition.FactorAnalysis
?显然它不在争论之中——但也许还有另一种方法可以实现这一目标?
可悲的是,我一直无法找到该功能的许多使用示例。
recommendation-engine - ALS 和 SVD 有何不同?
ALS 和 SVD 是否都涉及降维,如果是,这两种方法有何不同?乍一看,我不确定为什么它们不一样。
algorithm - 在 Matlab 中将双变量绘制转换为单变量绘制
我想到了在 Matlab 中运行的以下实验,我正在寻求帮助来实现步骤 (3)。任何建议将不胜感激。
(1) 考虑随机变量X
和Y
均均匀分布在[0,1]
(2)N
从联合分布中提取实现,X
假设Y
和X
是Y
独立的(意味着X
和Y
均匀地联合分布在 上[0,1]x[0,1]
)。每次抽奖将在[0,1]x[0,1]
.
(3)使用 Hilbert 空间填充曲线对 draw in[0,1]x[0,1]
中的每个 draw in 进行变换[0,1]
:在 Hilbert 曲线映射下,draw in[0,1]x[0,1]
应该是 中的一个(或多个由于超射性)点的图像[0,1]
。我想选择这些点之一。Matlab 中是否有任何预先构建的软件包可以做到这一点?
我找到了这个答案,我认为这不是我想要的,因为它解释了如何获得平局的希尔伯特值(从曲线起点到选取点的曲线长度)
在维基百科上,我在 C 语言中找到了这段代码(从(x,y)
to d
),这同样不能满足我的问题。
pca - 何时使用 ICA 而不是 PCA?
我知道 PCA 和 ICA 都用于降维,并且在 PCA 中主成分是正交的(不一定是独立的),但在 ICA 中它们是独立的。任何人都可以澄清什么时候使用ICA而不是PCA更好?
r - 字符串值的 SVD
我想对大型事件数据执行奇异值分解。假设我有 300 多个属性。而 atlas 其中 50% 是字符串值。像城市名称和其他可能的字符串值。
据我所知,SVD 通过计算数值之间的距离来进行降维。如果有这么多的字符串值如何实现?
编辑:由于评论和我的误解而重新措辞。我想知道如何对文本值进行降维。
python - 使用 t-SNE 降维进行聚类
问题是哪个应该首先出现:a)聚类或b)降维算法?换句话说,我可以应用像 t-SNE 这样的伪(因为它不是真的)降维方法,然后使用聚类算法来提取聚类,还是应该在原始高维空间上执行聚类并用于仅给节点着色?下面的代码是一个很好的开始方式还是我完全弄错了?
python - How to obtain the eigenvalues after performing Multidimensional scaling?
I am interested in taking a look at the Eigenvalues after performing Multidimensional scaling. What function can do that ? I looked at the documentation, but it does not mention Eigenvalues at all.
Here is a code sample:
machine-learning - Scikit-learn PCA .fit_transform 形状不一致(n_samples << m_attributes)
我正在为我的 PCA 使用不同的形状sklearn
。 为什么我的转换没有像文档说的那样产生一个相同维度的数组?
使用 iris 数据集检查这一点,这是(150, 4)
我制作 4 台 PC 的地方:
但是当我在我的实际数据集上使用(76, 1989)
与 in相同的方法时76 samples
,1989 attributes/dimensions
我得到一个(76, 76)
数组而不是(76, 1989)
normalize
只是我制作的一个包装器,它mean
从每个维度中减去 。