1

我正在通过模型使用gensim库在 Python 中构建 NLP 聊天应用程序。doc2vec我有硬编码的文档并给出了一组训练示例,我通过抛出一个用户问题来测试模型,然后作为第一步找到最相似的文档。在这种情况下,我的测试问题是训练示例中文档的精确副本。

import gensim
from gensim import models
sentence = models.doc2vec.LabeledSentence(words=[u'sampling',u'what',u'is',u'tell',u'me',u'about'],tags=["SENT_0"])
sentence1 = models.doc2vec.LabeledSentence(words=[u'eligibility',u'what',u'is',u'my',u'limit',u'how',u'much',u'can',u'I',u'claim'],tags=["SENT_1"])
sentence2 = models.doc2vec.LabeledSentence(words=[u'eligibility',u'I',u'am',u'retiring',u'how',u'much',u'can',u'claim',u'have', u'resigned'],tags=["SENT_2"])
sentence3 = models.doc2vec.LabeledSentence(words=[u'what',u'is',u'my',u'eligibility',u'post',u'my',u'promotion'],tags=["SENT_3"])
sentence4 = models.doc2vec.LabeledSentence(words=[u'what',u'is', u'my',u'eligibility' u'post',u'my',u'promotion'], tags=["SENT_4"])
sentences = [sentence, sentence1, sentence2, sentence3, sentence4]
class LabeledLineSentence(object):
    def __init__(self, filename):
        self.filename = filename
    def __iter__(self):
        for uid, line in enumerate(open(filename)):
            yield LabeledSentence(words=line.split(), labels=['SENT_%s' % uid])
model = models.Doc2Vec(alpha=0.03, min_alpha=.025, min_count=2)
model.build_vocab(sentences)
for epoch in range(30):
    model.train(sentences, total_examples=model.corpus_count, epochs = model.iter)
    model.alpha -= 0.002  # decrease the learning rate`
    model.min_alpha = model.alpha  # fix the learning rate, no decay
model.save("my_model.doc2vec")
model_loaded = models.Doc2Vec.load('my_model.doc2vec')
print (model_loaded.docvecs.most_similar(["SENT_4"]))

结果:

[('SENT_1', 0.043695494532585144), ('SENT_2', 0.0017897281795740128), ('SENT_0', -0.018954679369926453), ('SENT_3', -0.08253869414329529)]

SENT_4和的相似性SENT_3-0.08253869414329529在它应该为 1 时才出现,因为它们完全相同。我应该如何提高这种准确性?是否有特定的培训文件方式,我错过了什么?

4

1 回答 1

1

Word2Vec/Doc2Vec 不适用于玩具大小的示例(例如少量文本、短文本和少量总单词)。许多理想的属性只有通过数百万个单词或数万个文档的训练集才能可靠地实现。

特别是,只有 5 个示例,只有十几个或两个词,但是有 100 维的建模向量,训练不会被迫做使词向量/文档向量有用的主要事情:将表示压缩成密集的嵌入,其中相似的项目需要在向量空间中逐渐靠近彼此,因为没有办法在一个巨大的查找表中保留所有原始变化。具有比语料库变化更多的维度,您的相同标记可以采用完全不同的文档向量,SENT_3并且SENT_4模型仍然足够大,可以在其训练任务上做得很好(本质上是“过度拟合”),而没有所需的相似最终状态- 强制具有相似向量的文本。

有时,您可以通过更多的训练迭代和更小的模型(就向量而言)从小数据集中挤出更多的意义size,但实际上:这些向量需要大而多样的数据集才能变得有意义。

这是主要问题。您的示例代码中的其他一些低效或错误:

  • 您的代码不使用 class LabeledLineSentence,因此无需在此处包含它——它是不相关的样板文件。(此外,在最近的 gensim 版本中, +文档类TaggedDocument的首选名称,而不是.)wordstagsLabeledSentence

  • alpha您的自定义管理min_alpha不太可能做任何有用的事情。这些最好保留默认值,除非您已经有一些工作,很好地理解了算法,然后想尝试微妙的优化。

  • train()将进行自己的迭代,因此您无需在外循环中多次调用它。(所写的代码在其第一个循环中进行 5model.iter次迭代,alpha值从 0.03 逐渐下降到 0.025,然后在 0.028 的固定 alpha 处进行 5 次迭代,然后在 0.026 处再进行 5 次迭代,然后在 alpha 减小时再进行 27 组 5 次迭代,结束于第 30 次循环,固定 alpha 为 -0.028。这是一个无意义的结束值——学习率永远不应为负——在无意义的进程结束时。即使有一个大数据集,这 150 次迭代,大约一半发生在alpha负值,可能会产生奇怪的结果。)

于 2017-06-16T18:36:40.537 回答