为了把我的问题放在上下文中,我想训练和测试/比较几种(神经)语言模型。为了专注于模型而不是数据准备,我选择使用来自 nltk 的 Brown 语料库并训练 nltk 提供的 Ngrams 模型作为基线(与其他 LM 进行比较)。
所以我的第一个问题实际上是关于我发现可疑的 nltk 的 Ngram 模型的行为。由于代码很短,我将其粘贴在这里:
import nltk
print "... build"
brown = nltk.corpus.brown
corpus = [word.lower() for word in brown.words()]
# Train on 95% f the corpus and test on the rest
spl = 95*len(corpus)/100
train = corpus[:spl]
test = corpus[spl:]
# Remove rare words from the corpus
fdist = nltk.FreqDist(w for w in train)
vocabulary = set(map(lambda x: x[0], filter(lambda x: x[1] >= 5, fdist.iteritems())))
train = map(lambda x: x if x in vocabulary else "*unknown*", train)
test = map(lambda x: x if x in vocabulary else "*unknown*", test)
print "... train"
from nltk.model import NgramModel
from nltk.probability import LidstoneProbDist
estimator = lambda fdist, bins: LidstoneProbDist(fdist, 0.2)
lm = NgramModel(5, train, estimator=estimator)
print "len(corpus) = %s, len(vocabulary) = %s, len(train) = %s, len(test) = %s" % ( len(corpus), len(vocabulary), len(train), len(test) )
print "perplexity(test) =", lm.perplexity(test)
我发现非常可疑的是我得到以下结果:
... build
... train
len(corpus) = 1161192, len(vocabulary) = 13817, len(train) = 1103132, len(test) = 58060
perplexity(test) = 4.60298447026
困惑度为 4.6,似乎 Ngram 建模在该语料库上非常好。如果我的解释是正确的,那么模型应该能够平均在大约 5 次尝试中猜出正确的单词(尽管有 13817 种可能性......)。如果您可以分享您对这种困惑的价值的经验(我真的不相信)?我在网上没有发现任何关于 nltk 的 ngram 模型的投诉(但也许我做错了)。对于 Ngram 模型和计算困惑,你知道 NLTK 的一个很好的替代品吗?
谢谢!