我已经开始和摩西一起玩,并试图建立一个我认为是相当标准的基线系统。我基本上遵循了网站上描述的步骤,但news-commentary
我没有使用Europarl v7 进行训练,使用 WMT 2006 开发集和原始 Europarl 通用测试。我的想法是做一些类似于Le Nagard & Koehn (2010) 的事情,他们在基线英语到法语系统中获得了 0.68 的 BLEU 分数。
总而言之,我的工作流程或多或少是这样的:
tokenizer.perl
在一切lowercase.perl
(而不是truecase
)clean-corpus-n.perl
- 仅使用 Europarl v7 中的法语数据训练 IRSTLM 模型
train-model.perl
完全按照描述mert-moses.pl
使用 WMT 2006 开发- 如所述测试和测量性能
由此产生的 BLEU 分数是 0.26 ......这让我想到了两个问题:
- 这是这种基线系统的典型 BLEU 分数吗?我意识到 Europarl 是一个非常小的语料库,可以用来训练单语语言模型,尽管这就是他们在 Moses 网站上做事的方式。
- 对于刚从 SMT 和/或我可能陷入的摩西开始的人来说,是否有任何典型的陷阱?或者像 Le Nagard 和 Koehn 这样的研究人员是否以不同于 Moses 网站上描述的方式构建他们的基线系统,例如使用一些更大的、未公开的语料库来训练语言模型?