1

我有一段代码,如下所示,它使用 urllib2 .. 我正在尝试将其转换为 pycurl 以受益于 pycurl 代理支持。pycurl 的转换代码显示在原始代码之后。我想知道如何将 urllib.urlopen(req).read() 更改为 pycurl 中的类似内容。也许使用类似 strinIO 的东西?

urllib2 代码:

URL = 'URL'
UN = 'UN'
PWD = 'PWD'
HEADERS = { 'Accept': 'application/json',
            'Connection': 'Keep-Alive',
            'Accept-Encoding' : 'gzip',
            'Authorization' : 'Basic %s' % base64.encodestring('%s:%s' % (UN, PWD))  }
req = urllib2.Request(URL, headers=HEADERS)
    response = urllib2.urlopen(req, timeout=(KEEP_ALIVE))
    # header -  print response.info()
    decompressor = zlib.decompressobj(16+zlib.MAX_WBITS)
    remainder = ''
    while True:
        tmp = decompressor.decompress(response.read(CHUNKSIZE))

具有代理支持的 pycurl 转换:

URL = 'URL'
UN = 'UN'
PWD = 'PWD'
HEADERS = [ 'Accept : application/json',
            'Connection : Keep-Alive',
            'Accept-Encoding : gzip',
            'Authorization : Basic %s' % base64.encodestring('%s:%s' % (UN, PWD))  ]
req = pycurl.Curl()
    req.setopt(pycurl.CONNECTTIMEOUT,KEEP_ALIVE)
    req.setopt(pycurl.HTTPHEADER, HEADERS)
    req.setopt(pycurl.TIMEOUT, 1+KEEP_ALIVE)
    req.setopt(pycurl.PROXY, 'http://my-proxy')
    req.setopt(pycurl.PROXYPORT, 8080)
    req.setopt(pycurl.PROXYUSERPWD, "proxy_access_user : proxy_access_password")
    req.setopt(pycurl.URL , URL)
    response = req.perform()
    decompressor = zlib.decompressobj(16+zlib.MAX_WBITS)
    remainder = ''
    while True:
        tmp = decompressor.decompress(urllib2.urlopen(req).read(CHUNKSIZE))

提前致谢。

4

1 回答 1

2

urllib2返回一个可用于获取数据的对象不同,它curl需要您向它传递一个可用于存储数据的对象。

在大多数示例中使用的简单方法是将文件对象作为WRITEDATA选项传递。你可能认为你可以在StringIO这里传递一个,像这样:

# ...
s = StringIO.StringIO()
req.setopt(pycurl.WRITEDATA, s)
req.perform()
data = s.getvalue()

不幸的是,这行不通,因为文件对象必须是真实文件(或至少是具有 C 级文件描述符的文件),并且 aStringIO不合格。


您当然可以使用 a NamedTemporaryFile,但如果您希望将文件保存在内存中——或者,更好的是,不将其存储在内存磁盘上,而只是动态处理它——那将无济于事。


解决方案是改用该WRITEFUNCTION选项:

s = StringIO.StringIO()
req.setopt(pycurl.WRITEFUNCTION, s.write)
req.perform()
data = s.getvalue()

如您所见,您可以根据需要使用 a StringIO——事实上,这正是curlobject 文档pycurl所做的——但它并没有真正简化事情,超过任何其他累积字符串的方式(比如将它们放在一个列表中''.join-ing 它们,甚至只是将它们连接到一个字符串上)。

请注意,我链接到的是 C 级libcurl文档,而不是pycurl文档,因为pycurl' 的文档基本上只是说“FOO 与 CURLOPT_FOO 做同样的事情”(即使存在差异WRITEFUNCTION,比如你没有得到大小的事实, nmemb 和 userdata 参数)。


如果您想即时流式传输数据怎么办?只需使用 aWRITEFUNCTION动态累积和处理它。您不会自己编写循环,但curl会在内部循环并驱动该过程。例如:

z = zlib.decompressobj()
s = []
def handle(chunk):
    s.append(z.decompress(chunk))
    return len(chunk)
req.setopt(pycurl.WRITEFUNCTION, handle)
req.perform()
s.append(z.flush())
data = ''.join(s)

curl将为它检索的每个数据块调用一次您的函数,因此整个循环发生在该req.perform()调用中。(它也可能在最后以 0 字节再次调用它,因此请确保您的回调函数可以处理它。我认为z.decompress可以,但您可能想验证这一点。)

有一些方法可以限制每次写入的大小,在中间中止下载,将标题作为写入的一部分而不是单独获取等,但通常您不需要触摸这些。

于 2013-10-07T20:55:05.933 回答