0

我使用 Scrapy 框架来抓取数据。如果遇到 500 错误,我的爬虫将被中断。所以我需要在解析网页内容之前检查一个可用的链接。
有什么方法可以解决我的问题吗?
非常感谢。

4

1 回答 1

1

如果 url 存在,您可以使用 urllib 的 getcode() 方法来检查它:

import urllib
import sys

webFile = urllib.urlopen('http://www.some.url/some/file')
returnCode = webFile.getCode()

if returnCode == 500:
  sys.exit()

# in other case do something.
于 2012-09-23T06:52:54.363 回答