我正在使用 Qt 的 QWebPage 来呈现使用 javascript 动态更新其内容的页面 - 因此仅下载页面静态版本的库(例如 urllib2)将不起作用。
我的问题是,当我渲染第二页时,大约 99% 的时间程序会崩溃。在其他时候,它会在崩溃之前工作三遍。我也遇到了一些段错误,但这都是非常随机的。
我的猜测是我用来渲染的对象没有被正确删除,所以尝试重用它可能会给我自己带来一些问题。我看了一遍,似乎没有人真的遇到同样的问题。
这是我正在使用的代码。该程序从 Steam 的社区市场下载网页,这样我就可以创建一个包含所有项目的数据库。我需要getItemsFromPage
多次调用该函数来获取所有项目,因为它们被分成页面(显示 X 数量中的 1-10 的结果)。
import csv
import re
import sys
from string import replace
from bs4 import BeautifulSoup
from PyQt4.QtGui import *
from PyQt4.QtCore import *
from PyQt4.QtWebKit import *
class Item:
__slots__ = ("name", "count", "price", "game")
def __repr__(self):
return self.name + "(" + str(self.count) + ")"
def __str__(self):
return self.name + ", " + str(self.count) + ", $" + str(self.price)
class Render(QWebPage):
def __init__(self, url):
self.app = QApplication(sys.argv)
QWebPage.__init__(self)
self.loadFinished.connect(self._loadFinished)
self.mainFrame().load(QUrl(url))
self.app.exec_()
def _loadFinished(self, result):
self.frame = self.mainFrame()
self.app.quit()
self.deleteLater()
def getItemsFromPage(appid, page=1):
r = Render("http://steamcommunity.com/market/search?q=appid:" + str(appid) + "#p" + str(page))
soup = BeautifulSoup(str(r.frame.toHtml().toUtf8()))
itemLst = soup.find_all("div", "market_listing_row market_recent_listing_row")
items = []
for k in itemLst:
i = Item()
i.name = k.find("span", "market_listing_item_name").string
i.count = int(replace(k.find("span", "market_listing_num_listings_qty").string, ",", ""))
i.price = float(re.search(r'\$([0-9]+\.[0-9]+)', str(k)).group(1))
i.game = appid
items.append(i)
return items
if __name__ == "__main__":
print "Updating market items to dota2.csv ..."
i = 1
with open("dota2.csv", "w") as f:
writer = csv.writer(f)
r = None
while True:
print "Page " + str(i)
items = getItemsFromPage(570)
if len(items) == 0:
print "No items found, stopping..."
break
for k in items:
writer.writerow((k.name, k.count, k.price, k.game))
i += 1
print "Done."
调用getItemsFromPage
一次就可以了。随后的电话给了我我的问题。程序的输出通常是
Updating market items to dota2.csv ...
Page 1
Page 2
然后它崩溃了。它应该持续超过 700 页。