我目前正在研究我的论文,该论文与使用斯坦福大学 SQUAD 数据集的意大利语翻译自动问答有关。我将使用 Google 的 BERT https://github.com/google-research/bert,因为它目前在 SQUAD 挑战赛中取得了最好的成绩。Google 为包括意大利语在内的多种语言提供了多语言预训练模型。
仅针对意大利语发布 Google BERT 的单一语言模型是否值得?我的假设是单一语言模型意味着更小的网络意味着更少的训练时间和更小的规模。
我目前正在研究我的论文,该论文与使用斯坦福大学 SQUAD 数据集的意大利语翻译自动问答有关。我将使用 Google 的 BERT https://github.com/google-research/bert,因为它目前在 SQUAD 挑战赛中取得了最好的成绩。Google 为包括意大利语在内的多种语言提供了多语言预训练模型。
仅针对意大利语发布 Google BERT 的单一语言模型是否值得?我的假设是单一语言模型意味着更小的网络意味着更少的训练时间和更小的规模。