3

我正在尝试使用 Scrapy 制作递归解析脚本,但Request()函数不调用回调函数suppose_to_parse(),也不调用回调值中提供的任何函数。我尝试了不同的变体,但它们都不起作用。去哪里挖?

from scrapy.http import Request
from scrapy.spider import BaseSpider
from scrapy.selector import HtmlXPathSelector



class joomler(BaseSpider):
    name = "scrapy"
    allowed_domains = ["scrapy.org"]
    start_urls = ["http://blog.scrapy.org/"]


    def parse(self, response):
        print "Working... "+response.url
        hxs = HtmlXPathSelector(response)
        for link in hxs.select('//a/@href').extract():
            if not link.startswith('http://') and not link.startswith('#'):
               url=""
               url=(self.start_urls[0]+link).replace('//','/')
               print url
               yield Request(url, callback=self.suppose_to_parse)


    def suppose_to_parse(self, response):
        print "asdasd"
        print response.url
4

2 回答 2

1

我不是专家,但我尝试了您的代码,我认为问题不在请求上,如果您将一些 url 添加到列表中并遍历它们并产生带有回调的请求,生成的 url 似乎已损坏,它工作正常。

于 2013-03-22T21:56:17.460 回答
1

将 yield 移到if语句之外:

for link in hxs.select('//a/@href').extract():
    url = link
    if not link.startswith('http://') and not link.startswith('#'):
        url = (self.start_urls[0] + link).replace('//','/')

    print url
    yield Request(url, callback=self.suppose_to_parse)
于 2013-03-22T22:28:35.303 回答