scikit-learn 提供了各种删除描述符的方法,下面给出的教程已经提供了用于此目的的基本方法,
http://scikit-learn.org/stable/modules/feature_selection.html
但是本教程没有提供任何方法或方式可以告诉您保留已删除或保留的功能列表的方法。
下面的代码取自教程。
from sklearn.feature_selection import VarianceThreshold
X = [[0, 0, 1], [0, 1, 0], [1, 0, 0], [0, 1, 1], [0, 1, 0], [0, 1, 1]]
sel = VarianceThreshold(threshold=(.8 * (1 - .8)))
sel.fit_transform(X)
array([[0, 1],
[1, 0],
[0, 0],
[1, 1],
[1, 0],
[1, 1]])
上面给出的示例代码只描述了两个描述符“shape(6, 2)”,但在我的例子中,我有一个巨大的数据框,形状为(第 51 行,第 9000 列)。在找到合适的模型后,我想跟踪有用和无用的特征,因为我可以通过只计算有用的特征来节省计算测试数据集特征的计算时间。
例如,当您使用 WEKA 6.0 执行机器学习建模时,它在特征选择方面提供了极大的灵活性,并且在删除无用特征后,您可以获得丢弃特征的列表以及有用特征。
谢谢