1

我使用 twisted 及其 deferredGenerator 编写了一个爬虫。以下是关于我的问题的代码:

      @defer.deferredGenerator
      def getReviewsFromPage(self,title,params):

          def deferred1(page):
              d = defer.Deferred()
              reactor.callLater(1,d.callback,self.parseReviewJson(page))
              return d

          def deferred2(dataL,title):
              d = defer.Deferred()
              reactor.callLater(1,d.callback,self.writeToCSV(dataL,title=title))
              return d

          cp = 1
          #for cp in range(1,15000):
          while self.running:
              print cp
              params["currentPageNum"] = cp

              url = self.generateReviewUrl(self.urlPrefix,params = params)
              print url

              wfd = defer.waitForDeferred(getPage(url,timeout=10))
              yield wfd
              page = wfd.getResult()
              wfd = defer.waitForDeferred(deferred1(page))
              yield wfd
              dataList = wfd.getResult()
              wfd = defer.waitForDeferred(deferred2(dataList,title))
              yield wfd
              cp = cp+1

我使用发电机

    self.getReviewsFromPage(title,params)
    reactor.run()

我的问题是:当函数'getPage'出现超时错误时,我该怎么做才能处理错误并再次抓取错误页面?我曾经在getPage中添加了一个addErrback并想调用getPage,但似乎当reactor运行时,它不会再接收新事件了。

你们中有人遇到过同样的问题吗?我很感激你的帮助

4

1 回答 1

2

似乎当反应堆运行时,它不会再收到新事件了。

事实并非如此。事件在反应堆运行时发生!

你没有分享使用的代码版本addErrback,所以我看不出你使用它的方式是否有问题。但是,由于您已经在使用deferredGenerator,因此更惯用的方法是:

page = None
for i in range(numRetries):
    wfd = defer.waitForDeferred(getPage(url,timeout=10))
    yield wfd
    try:
        page = wfd.getResult()
    except TimeoutError:
        # Do nothing, let the loop continue
        pass
    else:
        # Success, exit the loop
        break
if page is None:
    # Handle the timeout for real
    ...
else:
    # Continue processing
    ...
于 2013-03-08T15:27:05.760 回答