我正在使用这个scrapy代码片段来呈现我想要从中抓取数据的网站的javascript代码。该网站是一个视频搜索引擎,搜索结果由 javascript 呈现。我想点击下一页链接并废弃整个搜索项目。以下是我的蜘蛛代码:
class VideoSpider(BaseSpider):
name = "VideoSpider"
allowed_domains = ["domain.com"]
start_urls = ['video search results link']
def parse(self, response):
hxs = HtmlXPathSelector(response)
video_items = hxs.select("//ul[@id='results-list']/li[@class='result']")
#items = []
for vi in video_items:
item = VideoItem()
link = vi.select("a[@class='result-link']/@href").extract()[0]
title = vi.select("a[@class='result-link']/@title").extract()[0]
#print title,link
item['title'] = title
item['url'] = link
yield item
next_page = hxs.select("//div[@id='page']/a")
for np in next_page:
next_url = np.select("@href").extract()
if next_url:
url = urlparse.urljoin(response.url, next_url[0])
#url = response.url, str(next_page)
self.log("find next page url: %s"%url, log.INFO)
yield Request(url, callback=self.parse)
我发现中的链接start_urls
已正确下载并正确呈现,如下所示:
<ul id="results-list" class="clearfix" static="bl=normal">
<li class="result" href="" </li>
<li class="result" href="" </li>
<li class="result" href="" </li>
....
因此,在第一页上提取成功,而在获取下一页链接时,javascript 不会像这样呈现:
<ul id="results-list" class="clearfix" static="bl=normal"></ul>
<div id="loading">trying to load page for you, please be patient</div>
所以抓取停止了,因为它无法提取链接,因为results-list
没有呈现。为什么第一页正确呈现而第二页没有?我应该使用selenium
而不是webkit and jswebkit
吗?