4

我正在尝试对具有维度(100000,1024)的矩阵执行白化。我需要确定 sklearn.decomposition 中的 PCA 或 RandomizedPCA 是否可以处理这种规模的问题,如果不能,我可以使用的最大功能数量是多少,并且仍然在大约 24 小时内完成。实现不是并行的。

根据sklearn.decomposition.PCA 的文档, PCA 转换的时间复杂度为 'O(n ** 3) 假设 n ~ n_samples ~ n_features。但我不确定那个 ~ 符号是什么意思。

RandomizedPCA据说效率更高,因为它是一个近似值,但我不知道多少。文档中没有关于它的时间复杂度。

作为参考,我已经对 (100000, 2) 进行了转换,这大约需要 2 分钟。我已经开始将(PCA 和 RandomizedPCA)转换为 (100000, 1024),两者都运行了大约一个小时。我想知道它们是否会完成,但如果我做不到,我会在 24 小时后终止它们(如果它们仍在运行)。

4

1 回答 1

4

通过实验,随机 PCA 似乎线性增长,并在一个多小时内完成了 1024 个特征。

于 2013-07-24T19:57:50.637 回答