我使用这个爬虫作为我的基础爬虫 https://github.com/alecxe/broken-links-checker/blob/master/broken_links_spider.py
创建它是为了捕获 404 错误域并保存它们。我想稍微修改一下,让它寻找“没有这样的主机”错误,即错误 12002。
但是,使用此代码,Scrapy 没有收到任何响应(因为没有主机可以返回响应),并且当 scrapy 遇到此类域时,它会返回
未找到:[Errno 11001] getaddrinfo 失败。
如何捕获此未找到错误并保存域?