3

我正在尝试创建一种算法,该算法能够显示类似于特定文档的前 n 个文档。为此,我使用了 gensim doc2vec。代码如下:

model = gensim.models.doc2vec.Doc2Vec(size=400, window=8, min_count=5, workers = 11, 
dm=0,alpha = 0.025, min_alpha = 0.025, dbow_words = 1)

model.build_vocab(train_corpus)

for x in xrange(10):
    model.train(train_corpus)
    model.alpha -= 0.002
    model.min_alpha = model.alpha
    model.train(train_corpus)

model.save('model_EN_BigTrain')

sims = model.docvecs.most_similar([408], topn=10)

sims var 应该给我 10 个元组,第一个元素是文档的 id,第二个元素是分数。问题是某些 id 与我的训练数据中的任何文档都不对应。

一段时间以来,我一直在尝试从我的训练数据中没有的 id 中理解,但我没有看到任何逻辑。

Ps:这是我用来创建我的 train_corpus 的代码

def readData(train_corpus, jData):

print("The response contains {0} properties".format(len(jData)))
print("\n")
for i in xrange(len(jData)):
    print "> Reading offers from Aux array"
    if i % 10 == 0: 
        print ">>", i, "offers processed..."

      train_corpus.append(gensim.models.doc2vec.TaggedDocument(gensim.utils.simple_preprocess(jData[i][1]), tags=[jData[i][0]]))
print "> Finished processing offers"

作为辅助数组的每个位置,位置 0 是一个数组,位置 0 是一个 int(我想成为 id),位置 1 是一个描述

提前致谢。

4

2 回答 2

3

您是否使用纯整数 ID 作为您的tags,但没有使用从 0 到您的所有整数MAX_DOC_ID

如果是这样,那可以解释该范围内标签的出现。当您使用普通整数时,gensim Doc2Vec 避免创建一个字典映射,提供标签到其内部向量数组中的索引位置——并且只使用整数本身。

因此,必须分配内部向量数组以包含MAX_DOC_ID + 1行。与未使用的 ID 对应的任何行仍被初始化为随机向量,就像所有位置一样,但不会接受来自实际文本示例的任何训练以将它们推入有意义的相对位置。因此,这些随机初始化但未经训练的向量可能会出现在以后的most_similar()结果中。

为避免这种情况,请仅使用从 0 到您需要的最后一个 ID 的连续整数。或者,如果您能负担得起字符串到索引映射的内存成本,请使用字符串标签而不是普通整数。或者,保留有效 ID 的额外记录并从结果中手动过滤不需要的 ID。

另外:通过iter=1在您的 Doc2Vec 模型初始化中不指定,默认的iter=5将生效,这意味着每次调用对train()您的数据进行 5 次迭代。奇怪的是,您的xrange(10)for 循环还包括对每次迭代的两个单独调用train()(第一个只是使用已经存在的任何 alpha/min_alpha)。因此,您实际上是在对数据进行 10 * 2 * 5 = 100 次传递,并采用奇怪的学习率计划。

我建议相反,如果您希望设置 10 次通行证iter=10,请保留默认值alpha/min_alpha保持不变,然后train()只调用一次。该模型将执行 10 次传递,从开始值到结束值平稳地管理 alpha。

于 2017-03-28T09:53:39.277 回答
0

我也遇到了这个问题,我正在使用以下内容初始化我的 doc2vec:

for idx,doc in data.iterrows():
    alldocs.append(TruthDocument(doc['clean_text'], [idx], doc['label']))

我向它传递了一个包含一些 wonk 索引的数据框。我所要做的就是。

df.reset_index(inplace=True)
于 2017-12-12T02:32:05.830 回答