一周前,谷歌宣布(https://blog.google/products/search/search-language-understanding-bert),他们将使用 BERT(https://ai.googleblog.com/2018/11/open- sourcing-bert-state-of-art-pre.html)以更好地理解搜索查询和精选片段。
因此,我的问题是,如果自然语言 API 中也使用了 BERT,还是这两个独立的系统?
一周前,谷歌宣布(https://blog.google/products/search/search-language-understanding-bert),他们将使用 BERT(https://ai.googleblog.com/2018/11/open- sourcing-bert-state-of-art-pre.html)以更好地理解搜索查询和精选片段。
因此,我的问题是,如果自然语言 API 中也使用了 BERT,还是这两个独立的系统?
BERT 既是一个可以训练的模型,也是一个预保留层,您可以在对层进行训练之前将其用作对输入文本的初步理解。
从这个意义上说,谷歌允许你在 GCP 机器学习中利用 TPU 做第二件事。你可以在这里看到如何。
至于谷歌是否在他的 NLP API 中使用了 BERT,我还没有发现是这种情况,尽管他们可能在后台使用了它。