如果 (url 在两个页面之间没有改变) 那么你应该在你的 scrapy.Request() 中添加dont_filter=True或者在处理第一页之后,scrapy 会发现这个 url 是重复的。
如果您需要使用 javascript 渲染页面,您应该使用scrapy-splash,您还可以检查这个可以使用 selenium 处理 javascript 页面的scrapy 中间件,或者您可以通过启动任何无头浏览器来做到这一点
但更有效和更快的解决方案是检查您的浏览器并查看在提交表单或触发某个事件期间发出了哪些请求。尝试模拟浏览器发送的相同请求。如果您可以正确复制请求,您将获得所需的数据。
这是一个例子:
class ScrollScraper(Spider):
name = "scrollingscraper"
quote_url = "http://quotes.toscrape.com/api/quotes?page="
start_urls = [quote_url + "1"]
def parse(self, response):
quote_item = QuoteItem()
print response.body
data = json.loads(response.body)
for item in data.get('quotes', []):
quote_item["author"] = item.get('author', {}).get('name')
quote_item['quote'] = item.get('text')
quote_item['tags'] = item.get('tags')
yield quote_item
if data['has_next']:
next_page = data['page'] + 1
yield Request(self.quote_url + str(next_page))
当每个页面的分页 url 相同并使用 POST 请求时,您可以使用scrapy.FormRequest()而不是scrapy.Request(),两者都是相同的,但 FormRequest 会向构造函数添加一个新参数(formdata=)。
这是这篇文章的另一个蜘蛛示例:
class SpiderClass(scrapy.Spider):
# spider name and all
name = 'ajax'
page_incr = 1
start_urls = ['http://www.pcguia.pt/category/reviews/#paginated=1']
pagination_url = 'http://www.pcguia.pt/wp-content/themes/flavor/functions/ajax.php'
def parse(self, response):
sel = Selector(response)
if self.page_incr > 1:
json_data = json.loads(response.body)
sel = Selector(text=json_data.get('content', ''))
# your code here
# pagination code starts here
if sel.xpath('//div[@class="panel-wrapper"]'):
self.page_incr += 1
formdata = {
'sorter': 'recent',
'location': 'main loop',
'loop': 'main loop',
'action': 'sort',
'view': 'grid',
'columns': '3',
'paginated': str(self.page_incr),
'currentquery[category_name]': 'reviews'
}
yield FormRequest(url=self.pagination_url, formdata=formdata, callback=self.parse)
else:
return