2

我正在使用 scikit-learn 从“词袋”文本(在单个词上标记的文本)中提取文本特征。为此,我使用TfidfVectorizer来减少非常频繁的单词(即:“a”、“the”等)的权重。

text = 'Some text, with a lot of words...'
tfidf_vectorizer = TfidfVectorizer(
    min_df=1,  # min count for relevant vocabulary
    max_features=4000,  # maximum number of features
    strip_accents='unicode',  # replace all accented unicode char
    # by their corresponding  ASCII char
    analyzer='word',  # features made of words
    token_pattern=r'\w{4,}',  # tokenize only words of 4+ chars
    ngram_range=(1, 1),  # features made of a single tokens
    use_idf=True,  # enable inverse-document-frequency reweighting
    smooth_idf=True,  # prevents zero division for unseen words
    sublinear_tf=False)

# vectorize and re-weight
desc_vect = tfidf_vectorizer.fit_transform([text])

我现在希望能够将每个预测特征与其对应的tfidf浮点值链接起来,将其存储在一个字典中

{'feature1:' tfidf1, 'feature2': tfidf2, ...}

我通过使用实现了它

d = dict(zip(tfidf_vectorizer.get_feature_names(), desc_vect.data))

我想知道是否有更好的 scikit-learn 本地方式来做这样的事情。

非常感谢你。

4

1 回答 1

5

对于单个文档,这应该没问题。当文档集很小时,另一种方法是我的这个使用Pandas的食谱

如果您想对多个文档执行此操作,则可以调整以下代码DictVectorizer.inverse_transform

desc_vect = desc_vect.tocsr()

n_docs = desc_vect.shape[0]
tfidftables = [{} for _ in xrange(n_docs)]
terms = tfidf_vectorizer.get_feature_names()

for i, j in zip(*desc_vect.nonzero()):
    tfidftables[i][terms[j]] = X[i, j]
于 2013-03-12T13:27:32.283 回答