0

我正在尝试从中国微博新浪微博收集转发数据,您可以看到以下代码。但是,我遇到了IP请求超出限制的问题。

为了解决这个问题,我必须为代码设置 time.sleep()。您可以看到我试图在代码中添加一行“time.sleep(10) # 来抑制 ip 请求限制”。因此,python 将在抓取一页转推后休眠 10 秒(一页包含 200 条转推)。

然而,它仍然不足以解决IP问题。

因此,我计划在每 20 页爬网后更系统地让 python 休眠 60 秒。您的想法将不胜感激。ids=[3388154704688495, 3388154704688494, 3388154704688492]

        addressForSavingData= "C:/Python27/weibo/Weibo_repost/repostOwsSave1.csv"    
        file = open(addressForSavingData,'wb') # save to csv file 

        for id in ids:
            if api.rate_limit_status().remaining_hits >= 205:  
                for object in api.counts(ids=id):
                    repost_count=object.__getattribute__('rt')
                    print id, repost_count
                    pages= repost_count/200 +2  # why should it be 2? cuz python starts from 0  
                    for page in range(1, pages):
                        time.sleep(10)  # to opress the ip request limit
                        for object in api.repost_timeline(id=id, count=200, page=page):  # get the repost_timeline of a weibo
                            """1.1 reposts"""
                            mid = object.__getattribute__("id")
                            text = object.__getattribute__("text").encode('gb18030')     # add encode here
                            """1.2 reposts.user"""
                            user = object.__getattribute__("user") # for object in user
                            user_id = user.id                                   
                            """2.1 retweeted_status"""
                            rts = object.__getattribute__("retweeted_status")
                            rts_mid = rts.id  # the id of weibo     
                            """2.2 retweeted_status.user"""
                            rtsuser_id = rts.user[u'id']                                                        
                            try:
                                w = csv.writer(file,delimiter=',',quotechar='|', quoting=csv.QUOTE_MINIMAL)
                                w.writerow(( mid,
                                            user_id, rts_mid,
                                            rtsuser_id, text)) # write it out   
                            except:  # Exception of UnicodeEncodeError
                                pass
            elif api.rate_limit_status().remaining_hits < 205:  
                sleep_time=api.rate_limit_status().reset_time_in_seconds # time.time()
                print sleep_time, api.rate_limit_status().reset_time
                time.sleep(sleep_time+2)
        file.close()
        pass
4

2 回答 2

0

你能不只是调整脚本的节奏吗?

我建议让你的脚本在每个请求之间休眠,而不是同时发出一个请求。说一分钟多一点。这样你也可以避免任何洪水禁令,这被认为是好的行为。

如果服务器不会因为发送太多请求而超时,那么调整请求的速度还可以让您更快地完成任务。


如果对 IP 有限制,有时它们不是很好且简单的解决方案。例如,如果您运行 apache http://opensource.adnovum.ch/mod_qos/会限制带宽和连接,特别是它会限制;

  • 最大并发请求数
  • 带宽限制,例如每秒对 URL 的最大允许请求数或每秒下载的最大/最小千字节数。
  • 限制每秒请求事件的数量
  • 通用请求行和标题过滤器以拒绝未经授权的操作。
  • 请求体数据限制和过滤
  • 来自单个 IP 源地址或动态保持活动控制的最大允许连接数。

你可能想从这些开始。您可以在请求中发送引荐来源网址,并且只建立单个连接,而不是多个连接。

你也可以参考这个问题

于 2012-05-14T10:07:56.430 回答
0

我想出解决方案:

首先,给一个整数,例如0

i = 0

二、在for page循环中,添加如下代码

for page in range(1, 300):
    i += 1
    if (i % 25 ==0):
        print i, "find i which could be exactly divided by 25"
于 2012-05-20T09:06:53.950 回答