我正在编写一个Python 2.7
下载网页的脚本。大多数时候,一切都按计划进行。鉴于此脚本有数千个网页可供下载,因此不可避免地会出现几次不成功的情况。URLError
如果出现 a或 an ,脚本会放弃并继续前进HTTPError
,但有时一切都会挂起,需要手动点击Ctrl-Z
或Ctrl-C
停止。有问题的代码:
f = urlopen (url)
local_file = open (file_name, 'w') # Open local file
local_file.write (f.read())
local_file.close ()
我试过signal.alarm
了,但它并不总是有效。我尝试了urlopen中的超时参数,但这不起作用。
是否有可靠的方法来确保脚本在一定秒数后自动放弃并继续前进?我应该使用 urlopen 以外的东西吗?