1

Scikit-learn 有一种使用极端随机树对特征(分类)进行排序的机制。

forest = ExtraTreesClassifier(n_estimators=250,
                          compute_importances=True,
                          random_state=0)

我有一个问题,如果这种方法是在做“单变量”或“多变量”特征排名。单变量案例是将各个特征相互比较的地方。我会很感激这里的一些澄清。我应该尝试摆弄其他任何参数吗?这种排名方法的任何经验和陷阱也值得赞赏。这个排名的输出识别特征编号(5,20,7。我想检查特征编号是否真的对应于特征矩阵中的行。也就是说,特征编号5对应于特征矩阵中的第六行(从 0 开始)。

4

1 回答 1

3

我不是专家,但这不是单变量的。事实上,总特征重要性是根据每棵树的特征重要性计算的(取我认为的平均值)。

对于每棵树,重要性是根据split 的杂质计算的

我使用了这种方法,它似乎给出了很好的结果,从我的角度来看比单变量方法更好。但除了数据集的知识外,我不知道任何测试结果的技术。

要正确订购该功能,您应该遵循此示例并对其进行一些修改,以便使用pandas.DataFrame及其正确的列名:

import numpy as np

from sklearn.ensemble import ExtraTreesClassifier

X = pandas.DataFrame(...)
Y = pandas.Series(...)

# Build a forest and compute the feature importances
forest = ExtraTreesClassifier(n_estimators=250,
                              random_state=0)

forest.fit(X, y)

feature_importance = forest.feature_importances_
feature_importance = 100.0 * (feature_importance / feature_importance.max())
sorted_idx = np.argsort(feature_importance)[::-1]
print "Feature importance:"
i=1
for f,w in zip(X.columns[sorted_idx], feature_importance[sorted_idx]):
    print "%d) %s : %d" % (i, f, w)
    i+=1
pos = np.arange(sorted_idx.shape[0]) + .5
plt.subplot(1, 2, 2)
nb_to_display = 30
plt.barh(pos[:nb_to_display], feature_importance[sorted_idx][:nb_to_display], align='center')
plt.yticks(pos[:nb_to_display], X.columns[sorted_idx][:nb_to_display])
plt.xlabel('Relative Importance')
plt.title('Variable Importance')
plt.show()
于 2014-02-02T15:51:31.120 回答