5

当您单击浏览器中的链接时,我正在尝试下载通过 javascript 操作请求的页面的 html。我可以下载第一页,因为它有一个通用 URL:

http://www.locationary.com/stats/hotzone.jsp?hz=1

但是页面底部的链接是数字(1 到 10)。因此,如果您单击一个,它将转到例如第 2 页:

http://www.locationary.com/stats/hotzone.jsp?ACTION_TOKEN=hotzone_jsp$JspView$NumericAction&inPageNumber=2

当我将该 URL 放入我的程序并尝试下载 html 时,它给了我网站上不同页面的 html,我认为它是主页。

当没有特定的 URL 时,如何获取这个使用 javascript 的 URL 的 html?

谢谢。

代码:

import urllib
import urllib2
import cookielib
import re

URL = ''

def load(url):

    data = urllib.urlencode({"inUserName":"email", "inUserPass":"password"})
    jar = cookielib.FileCookieJar("cookies")
    opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(jar))
    opener.addheaders.append(('User-agent', 'Mozilla/5.0 (Windows NT 6.1; rv:13.0) Gecko/20100101 Firefox/13.0.1'))
    opener.addheaders.append(('Referer', 'http://www.locationary.com/'))
    opener.addheaders.append(('Cookie','site_version=REGULAR'))
    request = urllib2.Request("https://www.locationary.com/index.jsp?ACTION_TOKEN=tile_loginBar_jsp$JspView$LoginAction", data)
    response = opener.open(request)
    page = opener.open("https://www.locationary.com/index.jsp?ACTION_TOKEN=tile_loginBar_jsp$JspView$LoginAction").read()

    h = response.info().headers
    jsid = re.findall(r'Set-Cookie: (.*);', str(h[5]))
    data = urllib.urlencode({"inUserName":"email", "inUserPass":"password"})
    jar = cookielib.FileCookieJar("cookies")
    opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(jar))
    opener.addheaders.append(('User-agent', 'Mozilla/5.0 (Windows NT 6.1; rv:13.0) Gecko/20100101 Firefox/13.0.1'))
    opener.addheaders.append(('Referer', 'http://www.locationary.com/'))
    opener.addheaders.append(('Cookie','site_version=REGULAR; ' + str(jsid[0])))
    request = urllib2.Request("https://www.locationary.com/index.jsp?ACTION_TOKEN=tile_loginBar_jsp$JspView$LoginAction", data)
    response = opener.open(request)
    page = opener.open(url).read()
    print page

load(URL)
4

1 回答 1

1

selenium 工具套件中的selenium webdriver使用标准浏览器来检索 HTML(它的主要目标是测试 Web 应用程序的自动化),因此它非常适合废弃富含 javascript 的应用程序。它有很好的 Python 绑定。

在所有 ajax 内容被触发后,我倾向于使用 selenium 来获取页面源,并使用 BeautifulSoup 之类的东西进行解析 BeautifulSoup 可以很好地处理格式错误的 HTML)。

于 2012-08-15T04:16:15.627 回答