我有一个包含 150 个样本和近 10000 个特征的数据集。我将样本分为 6 个集群。我使用sklearn.feature_selection.RFECV方法来减少特征数量。该方法使用10 倍 CV估计重要特征的数量 3000 个特征,准确率约为 95% 。但是,我可以使用大约 250 个特征(我使用grid_scores_绘制)获得约 92% 的准确度。因此,我想获得这 250 个功能。
我已经检查了这个问题Getting features in RFECV scikit-learn并发现通过以下方式计算所选特征的重要性:
np.absolute(rfecv.estimator_.coef_)
它返回二进制分类的重要特征数量的数组长度。正如我之前指出的,我有 6 个集群,并且sklearn.feature_selection.RFECV 进行分类1 vs 1。因此我得到(15, 3000)
ndarray。我不知道该怎么做。我正在考虑为每个功能采用点积:
cofs = rfecv.estimator_.coef_
coeffs = []
for x in range(cofs.shape[1]):
vec = cofs[ : , x]
weight = vec.transpose() @ vec
coeffs.append(weight)
我得到(1,3000)的数组。我可以对这些进行排序并得到我想要的结果。但我不确定它是否正确和有意义。我非常感谢任何其他解决方案。