4

如果我有中文单词表:like reference = ['我','是','好','人'],假设 = ['我','是','善良的','人]。我可以使用:nltk.translate.bleu_score.sentence_bleu(references, hypotheses) 进行中文翻译吗?它和英语一样吗?日语呢?我的意思是如果我有像英语这样的单词列表(中文和日语)。谢谢!

4

1 回答 1

9

TL;博士

是的。


在长

BLEU 分数测量 n-gram 及其与语言无关,但它取决于语言句子可以拆分为标记的事实。所以是的,它可以比较中文/日文......

请注意在句子级别使用 BLEU 分数的注意事项。BLEU 的创建从未考虑到句子级别的比较,这里有一个很好的讨论:https ://github.com/nltk/nltk/issues/1838

最有可能的是,当您的句子很短时,您会看到警告,例如

>>> from nltk.translate import bleu
>>> ref = '我 是 好 人'.split()
>>> hyp = '我 是 善良的 人'.split()
>>> bleu([ref], hyp)
/usr/local/lib/python2.7/site-packages/nltk/translate/bleu_score.py:490: UserWarning: 
Corpus/Sentence contains 0 counts of 3-gram overlaps.
BLEU scores might be undesirable; use SmoothingFunction().
  warnings.warn(_msg)
0.7071067811865475

您可以使用https://github.com/alvations/nltk/blob/develop/nltk/translate/bleu_score.py#L425中的平滑函数来克服短句。

>>> from nltk.translate.bleu_score import SmoothingFunction
>>> smoothie = SmoothingFunction().method4
>>> bleu([ref], hyp, smoothing_function=smoothie)
0.2866227639866161
于 2017-09-27T10:39:45.160 回答