3

我正在使用 sci-kit learn(0.11 版和 Python 2.7.3 版)从 svmlight 格式的二进制分类数据集中选择前 K 个特征。

我正在尝试识别所选功能的功能 ID 值。我认为这会很简单——而且很可能!(通过 feature-id,我的意思是这里描述的特征值之前的数字)

下面的代码准确地说明了我是如何尝试这样做的:

from sklearn.datasets import load_svmlight_file
from sklearn.feature_selection import SelectKBest

svmlight_format_train_file = 'contrived_svmlight_train_file.txt' #I present the contents of this file below

X_train_data, Y_train_data = load_svmlight_file(svmlight_format_train_file)

featureSelector = SelectKBest(score_func=chi2,k=2)

featureSelector.fit(X_train_data,Y_train_data)

assumed_to_be_the_feature_ids_of_the_top_k_features = list(featureSelector.get_support(indices=True)) #indices=False just gives me a list of True,False etc...

print assumed_to_be_the_feature_ids_of_the_top_k_features #this gives: [0, 2]

显然,assumed_to_be_the_feature_ids_of_the_top_k_features 不能对应于特征 ID 值 - 因为(见下文)我的输入文件中的特征 ID 值从 1 开始。

现在,我怀疑这assumed_to_be_the_feature_ids_of_the_top_k_features实际上可能对应于按递增值排序的特征 ID 值的列表索引。在我的情况下,索引 0 将对应于feature-id=1等 - 这样代码告诉我feature-id=1并被feature-id=3选中。

但是,如果有人可以确认或否认这一点,我将不胜感激。

提前致谢。

contrived_svmlight_train_file.txt 的内容

1 1:1.000000 2:1.000000 4:1.000000 6:1.000000#mA
1 1:1.000000 2:1.000000#mB
0 5:1.000000#mC
1 1:1.000000 2:1.000000#mD
0 3:1.000000 4:1.000000#mE
0 3:1.000000#mF
0 2:1.000000 4:1.000000 5:1.000000 6:1.000000#mG
0 2:1.000000#mH

PS抱歉格式不正确(第一次在这里);我希望这是清晰易懂的!

4

1 回答 1

2

显然,assumed_to_be_the_feature_ids_of_the_top_k_features不能对应于特征 ID 值 - 因为(见下文)我的输入文件中的特征 ID 值从 1 开始。

事实上,他们是。SVMlight 格式加载器将检测到您的输入文件具有基于 1 的索引,并将从每个索引中减去一个,以免浪费一列。如果这不是您想要的,则传递zero_based=True给以load_svmlight_file假装它实际上是从零开始的并插入一个额外的列;有关详细信息,请参阅其文档

于 2012-10-10T23:49:35.440 回答