-2

我在使用 python 访问网页时遇到问题——它抛出 HTTP 错误 403。在浏览堆栈溢出后,我发现许多其他用户遇到了同样的错误,并通过更改请求的标头来解决它。我试过了,但仍然收到错误。

这是我的代码:

req = urllib2.Request("http://www.mozilla.org")
req.add_header('User-agent', 'Mozilla/5.0 (Windows; U; Windows NT 5.1; en-GB; rv:1.8a3) Gecko/20040817')

try:
    response = urllib2.urlopen(req)
except urllib2.URLError, (err):
    print "URL error(%s)" % (err)

编辑:这是我的一大块代码,它是网络爬虫的开始。另外——我一直使用http://www.mozilla.org作为我的测试 url,尽管它似乎不适用于任何其他 url,例如 google 和 yahoo。

#!/usr/bin/python

import sys
import urllib2
import urlparse
tocrawl = set([sys.argv[1]])
crawled = set([])

while 1:
    try:
        crawling = tocrawl.pop()
        print 'Crawling: ', crawling
    except KeyError:
        print 'No more to crawl!'
        raise StopIteration

    url = urlparse.urlparse(crawling)
    print 'Url parse returned ', url

    req = urllib2.Request(crawling)
    req.add_header('User-agent', 'Mozilla/5.0 (Windows; U; Windows NT 5.1; en-GB; rv:1.8a3) Gecko/20040817')
    print 'header: ', req.get_header('User-agent')

    try:
        print 'test'
        response = urllib2.urlopen(req)
        print 'test2'
        print 'response: ', response
    except urllib2.URLError, (err):
        print "URL error(%s)" % (err)
        continue

    msg = response.read()
4

1 回答 1

0

固定的。问题是我没有设置必要的代理。感谢您的回复。

我添加了以下代码片段以进行修复。

proxy_info = urllib2.ProxyHandler({'http' : "proxy:80"})
opener = urllib2.build_opener(proxy_info)
urllib2.install_opener(opener)
于 2012-06-13T16:53:41.903 回答