我在fairseq GitHub 存储库中找到了这段简单的代码,它基本上bart.base
从以下位置加载 PyTorch 模型torch.hub
:
bart = torch.hub.load('pytorch/fairseq', 'bart.base')
这段代码大约在两周前运行良好,现在它引发了以下错误,尽管我没有更改任何内容:
HTTPError Traceback (most recent call last)
<ipython-input-7-68181b5f094c> in <module>()
1 # torch.cuda.empty_cache()
----> 2 bart = torch.hub.load('pytorch/fairseq', 'bart.base') #takes around two minutes
3 # bart.cuda() # use GPU
...
...
/usr/lib/python3.7/urllib/request.py in http_error_default(self, req, fp, code, msg, hdrs)
647 class HTTPDefaultErrorHandler(BaseHandler):
648 def http_error_default(self, req, fp, code, msg, hdrs):
--> 649 raise HTTPError(req.full_url, code, msg, hdrs, fp)
650
651 class HTTPRedirectHandler(BaseHandler):
HTTPError: HTTP Error 404: Not Found
此外,我发现这种情况发生在fairseq
. 以下所有模型都会引发相同的错误:
>>> torch.hub.load('pytorch/fairseq', 'transformer.wmt16.en-de')
# ERROR!
>>> torch.hub.load('pytorch/fairseq', 'camembert')
# ERROR!
所以,他们之间一定有共同点。