我正在使用 sci-kit learn(0.11 版和 Python 2.7.3 版)从 svmlight 格式的二进制分类数据集中选择前 K 个特征。
我正在尝试识别所选功能的功能 ID 值。我认为这会很简单——而且很可能!(通过 feature-id,我的意思是这里描述的特征值之前的数字)
下面的代码准确地说明了我是如何尝试这样做的:
from sklearn.datasets import load_svmlight_file
from sklearn.feature_selection import SelectKBest
svmlight_format_train_file = 'contrived_svmlight_train_file.txt' #I present the contents of this file below
X_train_data, Y_train_data = load_svmlight_file(svmlight_format_train_file)
featureSelector = SelectKBest(score_func=chi2,k=2)
featureSelector.fit(X_train_data,Y_train_data)
assumed_to_be_the_feature_ids_of_the_top_k_features = list(featureSelector.get_support(indices=True)) #indices=False just gives me a list of True,False etc...
print assumed_to_be_the_feature_ids_of_the_top_k_features #this gives: [0, 2]
显然,assumed_to_be_the_feature_ids_of_the_top_k_features
不能对应于特征 ID 值 - 因为(见下文)我的输入文件中的特征 ID 值从 1 开始。
现在,我怀疑这assumed_to_be_the_feature_ids_of_the_top_k_features
实际上可能对应于按递增值排序的特征 ID 值的列表索引。在我的情况下,索引 0 将对应于feature-id=1
等 - 这样代码告诉我feature-id=1
并被feature-id=3
选中。
但是,如果有人可以确认或否认这一点,我将不胜感激。
提前致谢。
contrived_svmlight_train_file.txt 的内容:
1 1:1.000000 2:1.000000 4:1.000000 6:1.000000#mA
1 1:1.000000 2:1.000000#mB
0 5:1.000000#mC
1 1:1.000000 2:1.000000#mD
0 3:1.000000 4:1.000000#mE
0 3:1.000000#mF
0 2:1.000000 4:1.000000 5:1.000000 6:1.000000#mG
0 2:1.000000#mH
PS抱歉格式不正确(第一次在这里);我希望这是清晰易懂的!