3

我正在抓取一个具有 javascript 的网站以转到下一页。我正在使用 splash 在第一页上执行我的 javascript 代码。但我能够进入第二页。但我无法进入 3,4,5.... 页面。仅一页后停止爬行。

我正在抓取的链接:http: //59.180.234.21:8788/user/ viewallrecord.aspx

编码:

import scrapy
from scrapy_splash import SplashRequest
from time import sleep


class MSEDCLSpider(scrapy.Spider):
    name = "msedcl_spider"
    scope_path = 'body > table:nth-child(11) tr > td.content_area > table:nth-child(4) tr:not(:first-child)'
    ref_no_path = "td:nth-child(1) ::text"
    title_path = "td:nth-child(2) ::text"
    end_date_path = "td:nth-child(5) ::text"
    fee_path = "td:nth-child(6) ::text"
    start_urls = ["http://59.180.234.21:8788/user/viewallrecord.aspx"]

    lua_src = """function main(splash)
        local url = splash.args.url
        splash:go(url)
        splash:wait(2.0)
        splash:runjs("document.querySelectorAll('#lnkNext')[0].click()")
        splash:wait(4.0)
        return {
            splash:html(),
        }
        end
        """

    def start_requests(self):
        for url in self.start_urls:
            yield SplashRequest(
                url,
                self.parse,
                endpoint='execute',
                method='POST',
                dont_filter=True,
                args={
                    'wait': 1.0,
                    'lua_source': self.lua_src,
                },
            )


    def parse(self, response):
        print response.status
        scopes = response.css('#page-info').extract()[0]
        print(response.url)
        print(scopes)

我是scrapy和splash的新手。请温柔一点。谢谢

4

1 回答 1

4

我可以看到两个问题:

  1. 你没有提出这些要求。在 start_requests 中发出单个请求,响应在 self.parse 方法中解析,但从不发送对 3rd 和其他页面的请求。为此,您需要从 .parse 方法发送一些请求。

  2. 如果您修复 (1),那么您可能会面临下一个问题:Splash 不会在请求之间保持页面状态。将每个请求视为打开一个新的私有模式浏览器窗口并执行一些操作;这是设计使然。但是这个网站的问题是 URL 在页面之间没有变化,所以你不能从第三页开始,然后点击“下一页”。

但我认为有办法解决(2)。也许您可以在单击后获取页面 html,然后使用splash:set_content将其加载到浏览器;您也可以保留 cookie - scrapy-splash README 中有一个示例;尽管该网站似乎并不依赖 cookie 进行分页。

另一种方法是编写一个脚本来加载所有页面,而不仅仅是下一页,然后将所有页面的内容返回给客户端。像这样的东西(未经测试):

function main(splash) 
    splash:go(splash.args.url)
    local pages = {splash:html()}
    for i = 2,100 do             
        splash:runjs("document.querySelectorAll('#lnkNext')[0].click()")            
        splash:wait(4)
        pages[i] = splash:html()
    end
    return pages
end

为此,您需要更大的超时值;您可能还必须使用更大的 --max-timeout 选项来启动 Splash。

于 2016-11-07T14:57:31.843 回答